Главная Настройка Mobile Контакты NSFW Каталог Пожертвования Купить пасскод Pics Adult Pics API Архив Реквест доски Каталог стикеров Реклама
Доски


[Ответить в тред] Ответить в тред

Check this out!


[Назад][Обновить тред][Вниз][Каталог] [ Автообновление ] 537 | 38 | 114
Назад Вниз Каталог Обновить

НЕЙРОНОЧКИ Аноним 27/10/17 Птн 11:27:12  1082641  
MoBgj.png (37Кб, 1118x375)
alphago-zero.png (122Кб, 770x415)
VisualizeConvol[...].png (1955Кб, 1501x981)
Тред про нейроночки будет тут.

Что почитать для вкатывания? http://www.deeplearningbook.org/
В чем практиковаться нубу? http://www.deeplearning.net/tutorial/
Где набрать первый самостоятельный опыт? https://www.kaggle.com/ https://halite.io/ https://www.general-ai-challenge.org/
Где работать? https://www.indeed.com/jobs?q=deep+learning&l=
Что мне делать со своей жизнью? https://80000hours.org/

Ну и про остальной машоб тоже можно поговорить ИТТ.
Аноним 27/10/17 Птн 17:21:54  1082795
>>1082641 (OP)
>Что мне делать со своей жизнью? https://80000hours.org/
зачем здесь это говно от школьников?
Аноним 27/10/17 Птн 18:17:17  1082833
>>1082641 (OP)
Запилите мне опенсорс нейроночку для yathzee, заебали.
Я не понимаю структуру слоев, как юлядь определить сколько надо нейронов на входе и сколько на втором и далее уровнях. Есть какая то методика на это?
Аноним 27/10/17 Птн 21:00:14  1082917
>>1082833
Вряд ли тебе кто-то будет пилить. Структура подбирается на глаз, исходя из опыта. Обычно сначала ты делаешь небольшую и неглубокую нейронку, постепенно увеличивая ее, пока хватает вычислительной мощности и увеличение дает улучшение точности.
Конкретно по твоей игре: смотри работы по покеру. Самая нашумевшая тут: https://www.deepstack.ai/ Там тебе и статья, и объяснения, и код. Когда поймешь, как и почему там все сделано, сможешь начать думать про алгоритм для своей игры.
Аноним 27/10/17 Птн 23:53:59  1083020
https://motherboard.vice.com/en_us/article/wjgnjq/ai-vicarious-recursive-cortical-network-captcha
Аноним 27/10/17 Птн 23:59:33  1083026
Блять ну это же невозможно читать. На англицком всё. Дайте на русском, в России нейронки благодаря яндексу хорошо развиты, неужели от их спецов туториалов нет?
Аноним 28/10/17 Суб 00:31:26  1083045
>>1083020
А демонстрации этого есть?
>>1083026
Нет смысла сейчас писать серьезные тексты на русском. Ты найдешь только поверхностные, технически безграмотные статьи от дилетантов, описывающие алгоритмы, устаревшие на десятилетия.
Аноним 28/10/17 Суб 00:41:15  1083052
>>1083045
>А демонстрации этого есть?
Не нашел. Но статья еще 2013 года есть почти такая же. Не понятно почему еще раз об этом сообщили. Может, что еще обучаться может быстро на малом количестве примеров. Интересно было бы проверить эти сетки на переводе текстов. Проект закрытый и патентованный похоже. Кроме кукареков никакой практики нет.

https://www.google.com/patents/US9373085
Аноним 28/10/17 Суб 00:47:16  1083055
>>1083052
https://www.vicarious.com/wp-content/uploads/2017/10/icml2017-schemas.pdf

https://vimeopro.com/user45297729/schema-networks

Впечатляет, однако.
Аноним 28/10/17 Суб 00:50:52  1083057
>>1083055
А не, все открыто.

https://github.com/vicariousinc/science_rcn/tree/master/science_rcn
Аноним 28/10/17 Суб 00:52:24  1083058
>>1083052
Numenta/Vicarious уже лет десять, если не больше, разрабатывают свою альтернативу нейроночкам, и пока результаты не впечатляют. Патенты еще какие-то... Похоже, они просто пытаются набить себе цену на пустом месте. Патенты очень любят всякие инвесторы, которые не разбираются в сути происходящего. Я бы хотел, чтобы у них получилось, люблю всякие нетрадиционные методы, но уже потерял веру в них.
Про более серьезные попытки сделать альтернативу CNN, сегодня пришло: https://arxiv.org/abs/1710.09829 Сам не разбирался пока, но Хинтон фигни не делает.
Аноним 28/10/17 Суб 01:01:14  1083062
>>1083057
Надо бы посмотреть. Ты пробовал запускать? Якобы тренируется всего несколько минут, без ГПУ. Особенно интересует, воспроизводятся ли результаты по рекапче, и корректно ли там оценивается точность.
Аноним 28/10/17 Суб 01:34:25  1083075
>>1083045
>А демонстрации этого есть?
https://www.vicarious.com/2017/10/26/common-sense-cortex-and-captcha/
>>1083062
неа

>>1083058
>разрабатывают свою альтернативу нейроночкам,

Интересно, на чем она основана?
Аноним 28/10/17 Суб 01:46:29  1083078
F2.large.jpg (146Кб, 1280x1110)
>>1083075
>Интересно, на чем она основана?
“Rapid inference on a novel AND/OR graph for object detection, segmentation and parsing,”

Это получается на энд ор графах? Т.е. задача сводится к тому, чтобы построить такой граф входных данных к выходным?
Аноним 28/10/17 Суб 01:48:04  1083079
>>1083075
>Интересно, на чем она основана?
Все пошло от книги On Intelligence Джеффа Хоукинса и разработанной им теории НТМ, вычислительной модели работы мозга: https://en.wikipedia.org/wiki/Hierarchical_temporal_memory
Дальше Numenta долго разрабатывала алгоритмы, основанные на этой теории. Над ними в числе прочих работал Джордж Дилип, который потом основал Vicarious.
Аноним 28/10/17 Суб 02:26:02  1083082
>>1083079
Интересно было бы увидеть чатбота на этой модели.
Аноним 28/10/17 Суб 03:02:41  1083093
>>1083082
Они там по-моему угорают по зрению, так что разве что кто-то еще сделает. Почему бы тебе самому не попробовать?
Аноним 28/10/17 Суб 13:42:08  1083189
>>1083093
Да пока не силен что там да как делать. А так если они хороши в обобщении с малым количеством данных, то текстовая инфа была бы самым подхлдящим, чтобы проверить их эффективность.
Аноним 28/10/17 Суб 16:08:48  1083245
>>1083078
Вот еще че нашлось. Даже с псевдокодом.

https://numenta.com/assets/pdf/whitepapers/hierarchical-temporal-memory-cortical-learning-algorithm-0.2.1-ru.pdf
Аноним 28/10/17 Суб 16:20:38  1083249
Блин, как вкатиться в эти нейросети, уже год хожу вокруг да около, а никак не могу начать, нашел единственный пример на хабре где распознаются буквы, но мне хотелось бы чтобы нейросеть была универсальной, и не фокусировалась чем-то одном. Где такое можно поизучать, в максимально доступной форме(желательно на плюсах, а то везде питон, а его я не знаю)
Аноним 28/10/17 Суб 16:42:06  1083257
>>1083249
>распознаются буквы
лол, это швабропидоры тебе так красиво написали?
Аноним 28/10/17 Суб 16:47:19  1083262
>>1083257
А что в этом такого? Там и демонстрационный пример даже был
Аноним 28/10/17 Суб 16:49:05  1083264
>>1082917
Ну хуй с ним с запиливанием, хоть алгоритм (структуру выходных и входных данных предложите).
Самое сложное - как учесть нейронке, какие комбинации уже сделаны/заполнены и какую комбинацию стремиться заполнить
Аноним 28/10/17 Суб 16:55:00  1083267
>>1083262
>демонстрационный пример даже был
а, тогда ладно, это же показатель.
Аноним 28/10/17 Суб 20:33:27  1083378
Так, посаны, а если сеть научить кодировать в md5 текст? Возможно такое за разумное время? А если наоборот, из md5 в текст?
Аноним 28/10/17 Суб 20:50:56  1083389
>>1082641 (OP)
Сап, только вкатываюсь, пишу простую нейросетку для распознавания рукописных цифр. Перцептрон с одним скрытым слоем. Получается точность до 90%, выше не выходит. Что я делаю не так?
Аноним 28/10/17 Суб 21:29:29  1083400
>>1083378
для этого нейросеть вроде и не нужна. как я это вижу?
кодировать наверное все умеют, а вот декодировать приходится брутфорсом или по таблицам хешей
сеть лучше обучать распознавать стартапы/пирамиды/хайпы в которые можно влошиться под овер 9к% и подавать сигнал на съеб/вывод_средств после анализа выплат, например
Аноним 28/10/17 Суб 21:34:29  1083401
>>1083400
Да пишут что невозможно такое. Интересно сеть вообще можно обучить функции x mod 5 например? Она же не непрерывная и походу сеть обломается.
Аноним 28/10/17 Суб 21:50:17  1083415
>>1083401
>пишут что невозможно такое
а где почитать об этом? нашел только
http://forum.clusterdelta.com/archive/index.php/t-1183.html
но там более сложные задачи, зависящие от многих факторов. интереснее было бы запилить сеточку, основанную на граббинге и анализе opendata
Аноним 28/10/17 Суб 21:59:58  1083420
>>1083389
Это нормальная точность для выбранной тобой архитектуры. Для повышения точности используй сверточные сети.
Аноним 28/10/17 Суб 22:03:35  1083421
>>1083401
Если тренировать с нуля на примерах текст -> мд5, то ничего не получится. Нужно собирать алгоритм постепенно, сначала научив сеть элементарным операциям, потом их комбинациям. Это тоже очень сложно и в целом на данный момент никто такого сделать не может, пока только гораздо более примитивные примеры работают. См. differentiable neural computer.
Аноним 28/10/17 Суб 22:08:58  1083427
>>1083249
В оппосте все расписано. "Не знаю питон" (как и "не знаю английского") это не тот уровень, на котором ты сможешь вкатиться, сначала нужно иметь элементарные навыки по компьютер саенсу и математике, так чтобы незнание языка программирования не ставило тебя в тупик. В материалах из оппоста все что нужно дается.
Аноним 28/10/17 Суб 22:25:12  1083435
>>1083420
увеличение количества слоёв не даст увеличение точности?
Аноним 28/10/17 Суб 22:29:00  1083442
>>1083435
Даст до некоторого предела, если будет много тренировочных данных. Сверточная сеть будет в любом случае гораздо эффективнее.
Аноним 28/10/17 Суб 22:59:58  1083457
>>1083442
Тогда скажи, есть ли смысл писать свёрточную целиком руками или лучше даже для начала воспользоваться каким-нибудь tensorflow?
Я хочу разобраться досконально.
Аноним 28/10/17 Суб 23:13:59  1083467
>>1083442
нейронобляди, когда вы хотя бы дорожные знаки научитесь распознавать?
Аноним 29/10/17 Вск 02:28:51  1083547
>>1083457
Руками - это формулы для градиентов расписать? Не имеет особого смысла имхо, чисто механическая работа. Лучше это время потратить на изучение матана, если ты в себе не уверен на этом фронте. А так производная и есть производная.
Свертку вручную ты сам достаточно эффективно не напишешь. В TF сейчас используется cuDNN, который использует недокументированные возможности новых видеокарт Nvidia и показывает на них чудовищную производительность. Уже, наверное, в тысячи раз быстрее наивного кода на ЦПУ.
Аноним 29/10/17 Вск 05:16:55  1083565
>>1083467
Лучше спроси себя, когда ты научишься гуглить.
https://medium.com/towards-data-science/recognizing-traffic-signs-with-over-98-accuracy-using-deep-learning-86737aedc2ab

Вообще этим вопросом ты показываешь свою полнейшую безграмотность. Любая задача распознавания сейчас может быть решена, вопрос только в данных. Наука уже лет 5 как ушла вперед и занимается гораздо более сложными проблемами. Например, мне не нужны тысячи примеров какого-то дорожного знака, чтобы научиться его распознавать: это называется one shot learning, и по этой теме в последние годы было много работ. Более того, часто я могу догадаться, что означае какой-то знак, даже увидев его впервые. Это называется zero shot learning, тоже горячая тема исследований сейчас.
Аноним 29/10/17 Вск 08:05:11  1083606
https://www.youtube.com/watch?v=36lE9tV9vm0
Аноним 29/10/17 Вск 12:54:17  1083705
>>1083547
Свёрточная нейросеть распознавания цифр, надеюсь, удовлетворится моим процессором без видеокарты?
Я не сомневаюсь, что библиотечные функции эффективнее, они же, в конце концов, оптимизировались под это дело.
С матаном тоже никаких проблем нет.
Я имел в виду, прописывать полностью структуру сети, я не знаю, как точно описать, т.к. не знаю, как это делается в библиотеках. Ну, например, утрируя, датасет я разделяю с помощью sklearn.train_test_split(), хотя я мог бы и вручную - я просто уже представляю, как и зачем это делается. Но если бы не представлял - я бы, наверное, написал бы функцию сам.
Вопрос у меня в том, слишком ли это будет сложно для свёрточной сети - всё досконально писать руками вместо готовой библиотеки?
Аноним 29/10/17 Вск 17:50:42  1083810
>>1083565
по твоей же ссыле негр вырезает знак и тыкает им в нос нейросети, а я тебе про норапльное динамическое распознование на дороге. юдасити кстати, ели раздилительную полосу детектит.
Аноним 29/10/17 Вск 20:58:15  1083948
>>1083705
Это не мега-сложно, просто муторно, и внимательно надо все делать, чтобы не набажить. Структура сети там простая. Начать можно с какого-нибудь LeNet без пулинга, это всего 3-4 слоя. Точность такой сети уже должна быть гораздо выше всего, что можно сделать без сверток.
Без видеокарты медленно будет, свертки очень прожорливые. Небольшая сеть с датасетом размера MNIST'а вполне нормально пойдет, но для более-менее интересного проекта придется либо арендовать облако, либо покупать себе видеокарту.
Аноним 30/10/17 Пнд 03:44:01  1084098
>>1083948
Да у меня ноут, хотя довольно мощный. Не могу позволить себе пока что купить нормальный компьютер.
Мне пока что разобраться с основами, ради действительно интересных проектов можно и облако арендовать. Если достаточно интересный будет.
Аноним 30/10/17 Пнд 04:12:35  1084104
>>1083810
https://www.youtube.com/watch?v=nf6rk56wYuI
Аноним 30/10/17 Пнд 04:16:59  1084106
>>1082641 (OP)
Хочу написать ИИ, который захватит мир. В какую сторону копать?
Аноним 30/10/17 Пнд 04:53:55  1084111
>>1084104
сам то смотрел? он там больше половины знаков проебывает. а вот черный крест на желтой ебе, это да, заметил.
Аноним 30/10/17 Пнд 04:56:00  1084112
>>1084111
олсо, зеленые и синии знаки в упор не видит, лол.
Аноним 30/10/17 Пнд 05:04:05  1084113
>>1084098
Ну если прямо хочешь именно все самому сделать, советую начать с обычной свертки. Объяснения, туториалы найдешь в интернете. Пулинг (когда берется максимум из нескольких соседних значений) уже реально замороченная штука: там при вычислении градиента нужно запоминать, какое именно значение было максимальным. Код получается гораздо сложнее. Когда наиграешься с ручной реализацией, бери ТФ или Керас какой-нибудь, там все уже как надо сделано. Свои реализации тоже можешь с ними сверять по входам/выходам для дебага.
Советую побыстрее проходить начальный этап и догонять передний край науки. Рекуррентные архитектуры, GAN'ы, differentiable neural computer, это уже настолько сложные вычисления, что ручная реализация там непрактична.
Аноним 30/10/17 Пнд 16:43:27  1084339
mongol1.jpeg (19Кб, 807x175)
mongol2.png (22Кб, 708x227)
mongol3.png (11Кб, 566x351)
mongol4.png (22Кб, 1315x275)
Нейроночка-переводчик от гугла обезумела, сумеешь ли ты совладать с ней?
Аноним 30/10/17 Пнд 18:03:34  1084388
>>1084339
привет из 2012
Аноним 30/10/17 Пнд 23:02:29  1084647
>>1084113
Насчёт трудоустройства в рф посоветуешь что-нибудь или пошлёшь в шапку треда?
Спасибо, я надеюсь побыстрее пройти этот начальный этап.
Аноним 30/10/17 Пнд 23:24:30  1084661
>>1084647
1. Шапка. Серьезно, шапка.
2. ПхД в западной стране.
3. Если сейчас где-то работаешь, пораскинь мозгами, составь план и выдвини начальству предложение по внедрению МЛ на твой проект. Вызовись сам все делать, скажи что давно изучаешь, горишь желанием, покажи домашние заготовки. Хайтек все любят, весьма велика вероятность, что тебе разрешат. Вот и будешь сиви наполнять для шапки.
Аноним 31/10/17 Втр 01:43:53  1084750
>>1084661
Ноуп, нигде не работаю. Мл занялся, чтобы сделать на гитхаб один интересный проект для резюме.
ПхД в западной стране могу получить через несколько лет (около 5) вообще в другой области.
Аноним 31/10/17 Втр 02:03:40  1084759
>>1083058
>Про более серьезные попытки сделать альтернативу CNN, сегодня пришло: https://arxiv.org/abs/1710.09829 Сам не разбирался пока, но Хинтон фигни не делает.
https://github.com/nishnik/CapsNet-PyTorch

Первые попытки реализовать.
>Dynamic Routing Between Capsules.

Это что, получается будут списки использоваться? А как на это GPU будет реагировать? Не будет ли это замедлять сильно работу?
Аноним 31/10/17 Втр 02:38:39  1084770
>>1084759
Новые модели разрабатываются без оглядки на оптимизации в настоящий момент. Если будут крутые результаты, оптимизации подтянутся. Сейчас целые библиотеки заточены под CNN, для этого тоже наверняка можно будет сделать.
Аноним 31/10/17 Втр 02:45:02  1084774
Сап, нейро-антуаны
Пару вопросов:
1) Мб есть у кого опыт по внедрению ML в робототехнику (reinforced learning, robovision) ?
А то у меня есть робот и таска для него. Пока решаю ифами-элсами и вроде норм, но интересно как туда можно всунуть упомянутое выше.
контроллер National Instruments MYRIO
код пока на c++ и kotlin

2) Мб кто-нибудь делал кастомные загрузчики для ImageFolder в pytorch. мне бы хотелось узнать как все же загружать изображение как одноканальное, а то я с opencv беру один канал, а оно шлет меня в Ж ошибку потом могу приложить
3) По тому же pytorch: пусть загрузил изображение в формате 1х32х32, как к нему прихерачить ещё и лейбл и скормить вместе с изображением в свёрточный слой? или есть варианты лучше?
Аноним 31/10/17 Втр 02:47:59  1084775
>>1084774
для 3) лейбл допустим в формате one-hot
Аноним 31/10/17 Втр 03:29:37  1084785
>>1084774
1) Нужно запихать питон. Для этого Rasberry PI берут. Чтобы было быстро с cuda берут Jetson TX2. Опыта у меня нет.
Аноним 31/10/17 Втр 03:40:08  1084788
>>1084774
>National Instruments MYRIO
https://forums.ni.com/t5/Academic-Hardware-Products-ELVIS/myRio-python-installation-help/td-p/3686481
тоже можно
Аноним 31/10/17 Втр 03:54:38  1084792
>>1084774
Из того, что я видел, применение РЛ в робототехнике это дело будущего. Сейчас для РЛ нужны миллионы семплов, что нереально получить на устройстве. Почти все работы делаются в симуляторах. Просто зрение элементарно делается, набери данных да тренируй, используй уже натренированные на imagenet модели для быстроты.

Лейбл к сверточной сети можно сделать дополнительными каналами. Т.е. делаешь еще один канал 1х32х32 и копируешь в каждый пиксель одно и то же значение. Для 1-хот, соответственно, n дополнительных каналов. В альфаго так делали.
Аноним 31/10/17 Втр 05:40:10  1084808
Результат опроса о жизни, вкате в дата саенс на кегле: https://www.kaggle.com/surveys/2017
Аноним 31/10/17 Втр 11:54:22  1084878
>>1084792
>>1084774
Допустим, мл будет проводиться в симуляции, потом применяться на живом роботе - и на ходу будут корректироваться недостатки симуляции. Такой подход может сработать?
Аноним 31/10/17 Втр 12:54:48  1084890
>>1084792
> Лейбл к сверточной сети можно сделать дополнительными каналами. Т.е. делаешь еще один канал 1х32х32 и копируешь в каждый пиксель одно и то же значение. Для 1-хот, соответственно, n дополнительных каналов. В альфаго так делали.
А не дофига ли каналов? И если допустим я буду вместо лейбла оригинал картинки присовывать? Пишу gan
Аноним 31/10/17 Втр 12:58:04  1084895
>>1084878
Думаю может, но пока я это сделать не смогу наверное (
Спасибо, мб над этим поработаю
Аноним 31/10/17 Втр 12:58:41  1084896
>>1084890
Вернее не gan, а cgan
Аноним 31/10/17 Втр 14:11:59  1084930
>>1084890
Дофига ли каналов - это тебе решать. Если тебе не надо лейблы обязательно в фильтры подавать, можешь их прицеплять отдельным входом, конкатенируя с одним из dense слоев ближе к выходу. Вообще нужно пробовать и так, и сяк. Никогда не знаешь заранее, что работает, а что нет.
Аноним 31/10/17 Втр 16:42:35  1085021
>>1084774
> пусть загрузил изображение в формате 1х32х32, как к нему прихерачить ещё и лейбл и скормить вместе с изображением в свёрточный слой
Не понял, ты хочешь еще сразу обучать прямо на роботе?
Аноним 31/10/17 Втр 17:33:31  1085044
>>1085021
cgan не в роботе, а так, ради интереса пишу)
в робота я пока не особо придумал, что и как всунуть
вопрос про кастомный лоадер все ещё актуален
Аноним 31/10/17 Втр 21:17:43  1085157
>>1084878
Как раз на эту тему свежий пост от гугла: https://research.googleblog.com/2017/10/closing-simulation-to-reality-gap-for.html
Аноним 31/10/17 Втр 21:26:23  1085163
>>1085157
гуглобляди соснули
Аноним 01/11/17 Срд 18:26:01  1085604
Допустим, я совершенно далекий не только от ML, но и от \pr\ обыватель с win7 и мне захотелось поиграться с нейросетями работающими с текстом типа таких
https://nplus1.ru/news/2016/08/05/neurokad
нагуглил, что использовалась вот это нейросеть
https://github.com/karpathy/char-rnn
из описания осознал что мне нужен некий Torch, а из его описания, что нужен Линукс.
Вопрос, как мне минимизировав пердолинг поиграться с нейросетями генерирующими текст? Есть ли какие-то чисто обывательские проги подобного плана. Я не имею в виду генераторы текста из 00-х типа Delirium, хотелось насладиться именно современными продуктами
Аноним 01/11/17 Срд 19:44:54  1085654
>>1085604
вот нашел за тебя на питоне

https://github.com/sherjilozair/char-rnn-tensorflow
Аноним 01/11/17 Срд 20:00:02  1085666
>>1085604
Максимум, что ты можешь, это смотреть как играются другие. Никаких продуктов для текста нет, кроме гугл транслейта, наверное.
Аноним 02/11/17 Чтв 02:29:45  1085939
Кто-то понял как capsnet организовать? Может сделаете подробное описание на русском?
Аноним 02/11/17 Чтв 02:40:04  1085947
>>1085939
сори, но только на ангельском
мб поможет
https://www.youtube.com/watch?v=VKoLGnq15RM
Аноним 02/11/17 Чтв 03:49:50  1085977
>>1085939
Выше давали ссылку на попытку реализации на питорче, посмотри. Если непонятно, можно обсудить конкретные вопросы.
Аноним 02/11/17 Чтв 05:29:52  1085992
Вот как это перевести?

The second layer (PrimaryCapsules) is a convolutional capsule layer with 32 channels of convolutional 8D capsules (i.e. each primary capsule contains 8 convolutional units with a 9×9 kernel and a stride of 2). Each primary capsule output sees the outputs of all 256×81 Conv1 units whose receptive fields overlap with he location of the center of the capsule. In total PrimaryCapsules has [32,6,6] capsule outputs (each output is an 8D vector) and each capsule in the [6,6] grid is sharing their weights with each other. One can see PrimaryCapsules as a Convolution layer with Eq. 1 as its block non-linearity.
The final Layer (DigitCaps) has one 16D capsule per digit class and each of these capsules receives input from all the capsules in the layer below.

Не пойму чем отличается от обычной сверточной сети и причем тут маршруты.
Аноним 02/11/17 Чтв 06:10:41  1085997
>>1085992
Маршруты в этом параграфе не обсуждаются. См. введение, чтобы понять, что это такое.
Капсулы нижнего уровня - это и есть CNN, вычисляющие свои активации, которые затем маршрутизируются к капсулам следующего уровня. Так и написано: "One can see PrimaryCapsules as a Convolution layer with Eq. 1 as its block non-linearity."

Капсулы последнего уровня это как dense слои, насколько я понял, т.е. они на входе получают активации нижних капсул, развернутые в вектор.
Аноним 02/11/17 Чтв 17:15:43  1086198
>>1085997
Тогда же получается что капсулы и выполняют задачу многослойности, только теперь между ними соединение не простое, а с условиями, если я правильно понял.
Аноним 02/11/17 Чтв 17:59:42  1086229
Короче теперь людям приходится расшифровывать, что там Хинтон выдал, жаль, что на китайском.

https://www.zhihu.com/question/67287444/answer/251460831
Аноним 02/11/17 Чтв 19:06:58  1086281
>>1086198
Да, капсулы располагаются по слоям. В целом архитектура подобна LeNet, но вместо maxpool у них маршрутизация между капсулами. Соединения организуются так: каждая капсула пытается предсказать активацию капсулы на следующем слое, на вход которой нужно передать свою активацию. Чем лучше это предсказание, тем с большим весом происходит передача активации. И это все вычисляется несколько раз, пока процесс не сойдется.

Это все мое понимание статьи, которое может быть неправильным.
Аноним 02/11/17 Чтв 19:09:16  1086287
>>1086229
Четкий сайт, кстати. Это китайский клон quora, вроде бы, но т.к. там сидит весь Китай, то экспертов по всем вопросам там гораздо больше.
Аноним 03/11/17 Птн 20:13:31  1086839
Более полная реализация капсул, опять на питорче: https://github.com/gram-ai/capsule-networks
Аноним 05/11/17 Вск 07:01:28  1087396
>>1082641 (OP)
> https://80000hours.org/
Что это?
Аноним 05/11/17 Вск 12:27:20  1087440
>>1084106
хаскель
Аноним 05/11/17 Вск 15:11:39  1087506
>>1082641 (OP)
Курс по основам нейронных сетей на русском языке. Используемый язык программирования Python:
https://stepik.org/course/401/syllabus
Аноним 10/11/17 Птн 03:19:30  1089703
Моя видеокарта стала отключаться очень быстро под тензорфлоу. Кажется, придется менять. Новенькая совсем, странно.
Аноним 10/11/17 Птн 05:16:29  1089720
Поясните пожалуйста пару моментов.
1) Дип лернинг == поиск практически брутфорсом математической формулы по получению Y из X?
2) Есть гайд как выбирать структуру и кол-во слоев сети в зависимости от задачи?
Аноним 10/11/17 Птн 06:32:16  1089732
>>1089720
>1) Дип лернинг == поиск практически брутфорсом математической формулы по получению Y из X?
Да.

>2) Есть гайд как выбирать структуру и кол-во слоев сети в зависимости от задачи?
Нет.
Аноним 10/11/17 Птн 08:10:08  1089747
>>1089732
В принципе верно, но например для картинок, ясное дело, нужно CNN брать. Для речи тоже вроде на чем-то сошлись, то ли LSTM, то ли опять же CNN по времени. Кароч, гайд в Крации такой: смотришь последние N статей по своей задаче и выделяешь то, что часто используется.
Аноним 11/11/17 Суб 11:16:57  1090221
Анон, насколько полезно знать статистику и быть знакомым с иными методами машобуча?
Аноним 11/11/17 Суб 12:38:50  1090235
>>1090221
Машоб. Или машинное обучение. За "машобуч" у нас на районе... не знаю, пока таких лохов не было.
Если ты хочешь быть простым слесарем и сыпать данные в модель пока хоть как-то что-то не начнет напоминать ожидаемый результат - пользуйся конструкторами от гугола, там вообще никаких знаний не надо. Если хочешь заниматься машобом серьезно, то статистику и иные методы знать необходимо, это просто санитарный порог.
Аноним 11/11/17 Суб 12:44:14  1090238
>>1089720
>Дип лернинг == поиск практически брутфорсом математической формулы по получению Y из X?
Аппроксимация функциональной зависимости Y от X, Y = f(X). Это суть всего машоба, диплернинг - только один из возможных методов такой аппроксимации.
>Есть гайд как выбирать структуру и кол-во слоев сети в зависимости от задачи?
Для нейроночек - не было, нет и не будет.
Аноним 11/11/17 Суб 23:47:25  1090552
Господи, чому я такой тупой. fit(X, y) и все, больше я ничего не могу. Да и это тоже.
Аноним 12/11/17 Вск 04:03:34  1090616
>>1090552
кури спеки, хуле
https://www.sciencedirect.com/science/journal/08936080?sdc=2
Аноним 12/11/17 Вск 06:30:25  1090662
https://ria.ru/economy/20171111/1508616511.html
Сбербанк извинился, что раскупил почти все видеокарты на российском рынке

Причиной дефицита на рынке видеокарт был Сбербанк, скупавший видеокарты для своей лаборатории искусственного интеллекта.

Так что те из вас, кто еще жаждет нейроработы в рабских вымиратах, могут попробовать сбертех или где там у них эта "лаборатория искусственного интеллекта".
Аноним 12/11/17 Вск 07:25:09  1090666
>>1082641 (OP)
посоветуйте проект чтобы в резюме написать плиз
Аноним 12/11/17 Вск 08:08:51  1090672
>>1090666
В резюме домашние проекты имеет смысл ставить, только если они в какой-то степени успешны, т.е. одобрены сообществом. Идеально это если ты опубликовал по ним научные статьи, ну тут тебе никто не посоветует, ясное дело. Гораздо слабее даже захудалого журнала или конференции, но в какой-то мере все же могут котироваться звезды на гитхабе. Тут смотри горячие темы (r/machinelearning), ищи что сегодня актуально и близко тебе, и делай. Вариантов тут много. Вот несколько примеров домашних проектов, которые вполне себе годятся для сиви, но недостаточно хороши для статей:
https://github.com/nagadomi/waifu2x
https://github.com/makegirlsmoe/makegirlsmoe_web
https://github.com/rameshvarun/NeuralKart
https://github.com/gram-ai/capsule-networks
https://github.com/andabi/deep-voice-conversion
Аноним 12/11/17 Вск 13:07:32  1090744
>>1090616
Я вижу там только математику. Математику я могу понять, я и сам учусь на прикладного математика. У меня просто особо нет идей по тому, что делать с данными на каггле. Ну запущу я случайный лес или градиентный бустинг, ну покручу параметры или выкину слабо коррелирующие, чтобы модель не переобучилась, а что еще можно делать - не знаю.
Аноним 12/11/17 Вск 18:23:38  1090843
>>1090672
Проектов, одобреных сообществом в принципе не может быть столько же сколько в сообществе членов, как тогда остальные вкатывались?
Аноним 12/11/17 Вск 20:10:45  1090882
>>1090672
>https://github.com/gram-ai/capsule-networks

>Одна из самых интересных моделей последнего полугодия от одного из отцов машин лернинга
>Недостаточно хороша для статьи

Аноним 12/11/17 Вск 20:17:03  1090888
Сап аноны, хотел прочитать Бишопа, но понял что слишком плохо знаю тервер и матстат, теперь решил повторить весь тервер с самого начала, что посоветуете для таких целей?
Желательно чтобы было подробно все описано, без объяснений на пальцах.
Аноним 12/11/17 Вск 20:40:03  1090896
>>1090882
Это реализация той статьи, сделанная каким-то челом, пытающимся пиарить свой стартап. В принципе так можно хорошо звезд срубить, реализовывая новье без нормальных реализаций. Но нужно угадать со статьей, чтобы не реализовывать никому не интересные вторичные работы.

>>1090888
Jaynes "Probability Theory: The Logic of Science"
Аноним 12/11/17 Вск 21:30:44  1090925
Анон, учу C, хочу попробовать себя в написании нейронок.
Нейронки можно писать на С? Какую литературу посоветуешь для совсем уж еблана, который ничего не знает?
Аноним 13/11/17 Пнд 00:21:55  1091012
>>1090925
думаю, даже на икселе можно писать. Сверху диплернинг бук, из прошлых тредов Бишоп и прочие книжки.
Аноним 13/11/17 Пнд 00:48:21  1091018
>>1090925
В гугл не научился? https://pjreddie.com/darknet/
https://github.com/pjreddie/darknet
Один из топовых репозиториев по Си на гитхабе кстати.
Аноним 13/11/17 Пнд 01:33:12  1091034
>>1091018
Ничоси, там даже куда поддерживается. Не знал про такую либу.
Аноним 13/11/17 Пнд 04:24:07  1091069
>>1091012
на икселе она необучаемая получится
Аноним 13/11/17 Пнд 06:49:19  1091085
https://medium.com/@karpathy/software-2-0-a64152b37c35
Нейроночки - это software 2.0. Понятно, салаги? Так сказал Director of AI at Tesla Андрей Карпати.
Аноним 13/11/17 Пнд 09:22:15  1091111
409.gif (386Кб, 600x701)
>>1091085
Идишекопф!
Мать этого малчика не умъёт от нищеты!
Аноним 13/11/17 Пнд 09:39:59  1091115
>>1091111
Ахаха, в точку. Этот малчик оседлал волну ИИ-хайпа как боженька! На реддите проходил слух с год назад, что еще до того, как он защитился, какая-то финансовая контора сделала ему оффер на >1млн. $$$ в год. Учитесь продавать себя.
Вообще сам факт того, что твое трудоустройство обсуждают в r/ml это... ну не знаю... выше этого только быть Хинтоном.
Аноним 13/11/17 Пнд 16:24:43  1091271
>>1091085
мдя, не думал, что у теслы дела настолько плохи
Аноним 13/11/17 Пнд 16:33:35  1091276
>>1091115
Что там на реддите? Жопой чую, помойка чсвшных мрахей хуже двача.
Аноним 14/11/17 Втр 09:22:45  1091656
>>1091069
сверху макрос на вба
Аноним 14/11/17 Втр 09:26:58  1091658
>>1091111
сообщество все-таки плохо восприняло этот софтвеир 2.0, так что еще ничто не гарантировано
Аноним 14/11/17 Втр 09:47:32  1091662
>>1091085
В И З И О Н Е Р
И
З
И
О
Н
Е
Р
Аноним 14/11/17 Втр 17:35:49  1091909
>>1091085
>Нейроночки - это software 2.0
Читать научись, дегенерат. Software 2.0 это не нейроночки, а решение задач нейроночками, записанное в терминах весовых коэффициентов, обеспечивающих решение задач (регрессия, классификация,...) на данном датасете. Т.е. в терминах аппроксимации зависимости выходов от входов y=f(x), Software 2.0 это набор векторов f, решающих заданную датасетом задачу.
>In contrast, Software 2.0 is written in neural network weights. No human is involved in writing this code because there are a lot of weights (typical networks might have millions), and coding directly in weights is kind of hard (I tried). Instead, we specify some constraints on the behavior of a desirable program (e.g., a dataset of input output pairs of examples) and use the computational resources at our disposal to search the program space for a program that satisfies the constraints.
>>1091115
Мамку он твою оседлал как боженька, чучело.
Аноним 14/11/17 Втр 23:23:18  1092135
Поясните за кросс валидацию.
Вот мы разбили датасет на какое-то количество одинаковых кусков, один кусок выкинули, на остальных надрочили свою модель и потом делаем валидацию на выкинутом куске. Потом выкидываем следующий кусок, а первый возвращаем обратно и тренируем заново с теми же гиперпараметрами и так далее со всеми кусками? Я так понимаю это так работает?
Аноним 14/11/17 Втр 23:45:46  1092152
>>1092135
Да.
Аноним 15/11/17 Срд 08:24:04  1092251
>>1090744
неистово плюсую, подскажите че делать
Аноним 15/11/17 Срд 09:08:31  1092255
>>1092251
Я пока для себя решил, что когда выдастся время, посмотрю записи Яндекс.Тренировок и решения от победителей на Каггле.
Аноним 15/11/17 Срд 18:25:55  1092485
Снимок.PNG (85Кб, 1280x454)
Анончики помогите! нужно в матлабе сделать прогноз по выборам региональным с помощью нейронки, не могу найти нормальной инфы как это сделать. по похожему примеру нихера не получается. подскажите кто, что может пожалуйста
Аноним 15/11/17 Срд 18:54:08  1092496
голосоватор.jpg (111Кб, 604x454)
>>1092485
>в матлабе сделать прогноз по выборам региональным с помощью нейронки
Экий вы, батенька, неформал. По одному наблюдению на каждый участок делать прогноз, да еще нейронкой да еще в матлабе. Надо несколько результатов на каждый участок, но поскольку речь видимо о выборах в госдуру, то смысла делать прогноз вообще нет, за такой промежуток времени меняется вообще все. Впрочем, 65%+ для ПЖиВ на любом участке я тебе без всякой нейронки предскажу.
Аноним 15/11/17 Срд 19:02:35  1092499
>>1092496
про бессмысленность такого прогноза я говорила преподу, тогда мне было дано задание по 2м годам сделать, 2012 и 2017, но легче мне от этого не стало. может есть аналог матлаба, но для тупеньких? мне было сказано выбрать прогу с нейронкой, матлаб был единственной знакомой. вообще точность расчетов и их правильность мне не важна, главное хоть какой-то расчет чтобы вставить в курсач
Аноним 15/11/17 Срд 19:15:06  1092502
>>1092499
Ну если просто посчитать, чтобы хоть что-то было, тогда суть в том, что столбец за 2012 это вход, за 2017 - выход. Тогда тестовые данные - это столбец за 2017. Если не принципиально, в чем делать - делай в Statistica (только чтобы там был модуль с нейронками). Это самый простой вариант, как по мне - намного проще матлаба, . Ради одного курсача R а тем более пистон осваивать смысла вообще нет. Книжка в тему - http://gen.lib.rus.ec/book/index.php?md5=E17EF63162B31C544C3B5B3788F75789 там полно примеров. Хотя, конечно, то что тебе надо, можно регрессией в екселе сделать без всяких нейронок.
Аноним 15/11/17 Срд 19:36:52  1092512
>>1092502
спасибо большое!
Аноним 15/11/17 Срд 20:33:24  1092548
>>1083249
>Блин, как вкатиться в эти нейросети, уже год хожу вокруг да около, а никак не могу начать, нашел единственный пример на хабре где распознаются буквы, но мне хотелось бы чтобы нейросеть была универсальной, и не фокусировалась чем-то одном. Где такое можно поизучать, в максимально доступной форме

Не стоит вскрывать эту тему, srsly. Она на треть из ЕХАЛ ХИНТОН ЧЕРЕЗ ХИНТОН, еще на треть из ГУГЛ ОБУЧИЛ ОМСКУЮ СЕТКУ НА ЙОБАБАЙТЕ СРАНОГО ГОВНА, на треть из НЕВНЯТНЫЙ ХУЙ УЛУЧШИЛ СoТА НА 0.18% НА СКВАДЕ, и на треть из кудахтающих долбоебов с кагла. А. И еще немного школьников, клепающих очередную ПРИЗМУ, но они сильно пересекаются с каглерами. Вкатывайся, когда пена осядет.

>(желательно на плюсах, а то везде питон, а его я не знаю)
Вот щас толсто было.
Аноним 15/11/17 Срд 20:51:45  1092562
>>1092548
>
>>(желательно на плюсах, а то везде питон, а его я не знаю)
>Вот щас толсто было.

Я кстати то-же всюду питон вижу.
Но нам же программировать хуже чем червя пидора кушать. Язык - гной.
Аноним 15/11/17 Срд 22:56:22  1092618
Kickback.jpg (62Кб, 382x480)
>>1092562
>Я кстати то-же всюду питон вижу.
Самого главного ты не видишь, питон у него, дооооооооооооооооо
Аноним 15/11/17 Срд 23:23:08  1092632
>>1092618
Я не понимаю, что ты хочешь сказать.
Прошу, разверни.
Аноним 15/11/17 Срд 23:29:06  1092637
>>1092548
Хинтона и прочих старперов можно особо не слушать - не они AlexNet придумали, а 30 лет ебали мозг всякой хуитой. Кто-нибудь вспоминает такую хуиту, как deep belief network? Эти хуи реально занимались подобным вместо идеи ReLU слоя и дропаута.
Вот с этими капсулами та же хуйня будет - тормозная хуево работающая на видюхах хуйня, которая как-то там обходит state of art на MNIST - ебать достижение.
А я могу объяснить, почему это хуйня. Он пишет о недостатках сверточных сетей, что они не умеют поворачивать фичи - и это их фатальный недостаток. Только вот люди тоже с трудом работают с повернутыми фотками (гугли оптическая иллюзия перевернутое лицо), и ничего, при этом обучаются быстро и особо не страдают от этого.
У сверточных сетей конечно есть фатальный недостаток - один и тот же фильтр накладывается во всем поле зрения, тогда как в мозге это, очевидно, не так, и в разных местах поля зрения разные фильтры, но это не решается капсулами.
>ГУГЛ ОБУЧИЛ ОМСКУЮ СЕТКУ НА ЙОБАБАЙТЕ СРАНОГО ГОВНА
Я бы тоже о таком пиздел. Но по факту просто деньги девать некуда, а если есть конкретные идеи, то все гораздо проще.
> и на треть из кудахтающих долбоебов с кагла
Кагл вообще рак, который никакого отношения к реальным задачам не имеет.
ИРЛ у тебя всегда есть датасет любого размера, который тебе нужен, а за дрючево лишних пары процентов никто тебе деньги платить не будет, если для бизнеса 80% - ок (что вряд ли), то ебать 2 месяца мозги, чтобы получить 82% никто не будет. Бизнесу нужно или 99% или иди нахуй, а для этого нужны не йоба-спецы, а толпа макак, которая увеличит датасет в 10-100 раз.
А на кагле наоборот, датасет фиксирован, за пару дней кто-то достигает 80%, и в оставшееся время все сидят и пиздятся за оставшиеся 2%. Абсолютно тупейшее и бесполезное умение, по типу как олимпиады по программированию соотносятся с методичным кодингом.

Поэтому не смотрите на хайп и вкатывайтесь - одного 1080TI сейчас хватает для очень крутых штук, главное уметь готовить датасет и иметь терпение подбирать гиперпараметры.
Аноним 15/11/17 Срд 23:33:46  1092641
>>1092512
По-моему, проблема не в инструменте, а в теме проекта. Лучше бы ты взяла какой-нибудь контест с каггла и прочитала к нему решения, люди зачастую выкладывают. А про выборы как-то маловато данных.
Аноним 16/11/17 Чтв 00:17:54  1092666
>>1092632
Пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим...
Аноним 16/11/17 Чтв 00:19:15  1092667
Анон, поясните примеров реальных задач, которые как-то помогают бизнесу и относятся к машинлернингу.

Задрочил более-менее теорию, сделал пару классификаторов жанров фильмов, пару распознователей на конволюшенах, но это несколько искуственные примеры.

Хочется сделать что-нибудь более приближенное к реальному миру. Так может по аналогии чего-нибудь придумаю.
Аноним 16/11/17 Чтв 00:22:44  1092670
>>1092667
Рекомендательные системы. По слухам, после внедрения фич "покупатели, которые смотрели это, смотрели также и вот это", выручки больших интернет-магазинов возрасли в несколько раз.
Аноним 16/11/17 Чтв 00:31:58  1092674
>>1092670
Похоже, здесь >>1092666 я был прав.
Аноним 16/11/17 Чтв 00:44:47  1092679
>>1092670
А что там используют какой-то рокет саенс стейт оф зе арт? Я думал там примитивная хуйня по типу корреляции пирсона с некоторыми дополнениями.
Аноним 16/11/17 Чтв 00:52:46  1092680
>>1092666
>пилим, заносим, пилим, заносим
Это мне понятно.
Мне непонятно, причем тут питон.
Сириусли, я пытаюсь тебя понять.
Аноним 16/11/17 Чтв 00:55:05  1092682
47z.jpg (32Кб, 500x331)
>>1092680
На такие «проекты» нанимают исключительно молодых, и объяснения этому нет.
Аноним 16/11/17 Чтв 01:26:11  1092694
>>1092679
Я не понял твоего вопроса, но ты можешь начать погружение в тему, погуглив recommendation systems.
Аноним 16/11/17 Чтв 09:18:44  1092759
>>1092641
тему я увы менять не могу, сроки сгорели еще в начале ноября, поэтому должна хоть что-то сделать с этими выборами
Аноним 16/11/17 Чтв 22:30:31  1093122
app-removes-mak[...].png (553Кб, 1200x630)
Парни, что надо чтобы сделать подобное приложение?
Аноним 16/11/17 Чтв 23:57:02  1093216
Ого, эти треды теперь здесь постоянные. Зачем шапку-то так порезали? Вроде даже в самом первом треде наговнякали большой FAQ со ссылками на книжки и прочее.
ОП первых двух тредов год назад.
Аноним 17/11/17 Птн 02:48:20  1093261
>>1093216
Там было нерелевантное, устаревшее на десятилетия говно мамонта, которое все равно никто не будет читать. Теперь остался только топчик.
Аноним 17/11/17 Птн 02:49:40  1093262
>>1093122
Надо быть в теме.
Аноним 17/11/17 Птн 08:12:42  1093291
>>1093216
Ты работаешь в этой области?
Аноним 17/11/17 Птн 09:45:27  1093307
>>1093261
>EoSL, Bishop
>Нерелевантное, устаревшее говно
Понятно, хипстеры и тут одолели
>>1093291
Работал, сейчас в большом отпуске, потому что устал.
Аноним 17/11/17 Птн 09:59:00  1093309
Поддерживаю >>1093307, какого хуя есл с Бишопом не в шапке? Это же ОСНОВЫ.
Аноним 17/11/17 Птн 20:01:34  1093612
Уже deeplearningbook 2016 устарел, область развивается лавинообразно, а вы про наскальную живопись Бишопа 2006. 150 страниц жевания линейных моделей, 100 страниц про SVM (>разбираться в деталях устройства SVM >2017), и полкниги про вероятностные модели, интересные только узкому и стремительно сужающемуся кругу исследователей, и нигде не использующиеся в быту. Почти ничего про нейроночки, из которых современный МЛ состоит почти полностью (и неудивительно - в 2006 диплернинга еще не было). Офигенные основы у вас. Уж пусть тогда лучше нубы древних философов читают, оно хоть не устаревает.

То, что вы называете хипстерством, это суть прогресс, который отбрасывает старые знания, когда появляется нечто лучшее. Иногда это происходит стремительно, как сейчас, и то что вчера было основами и вершиной прогресса, сегодня валяется, забытое, на помоечке. То, что вы потратили годы на изучение R, нечетких моделей, или SVM, никак не меняет ситуацию, и если вы будете вместо развития бухтеть, что мол хипстеры все заполонили и не чтят дидов, то так и останетесь на помоечке вместе с вашими любимыми технологиями.
Аноним 17/11/17 Птн 20:29:39  1093638
>>1093612
Ну а что сейчас на острие трендов?
Я сейчас смотрю видеокурс стенфорта по сверточным сетям, годнота, помню года 3-4 назад, когда впервые столкнулся с нейроночками силился понять суть бэкпропегейшна и нигде нормального объяснения не было ПОЧЕМУ ЭТО РАБОТАЕТ, а тут по полочкам разложили за час. Но и там уже походу слегка устаревшие вещи я смотрю уже всякие caffe 2 появились и т.д.

Что сейчас самое hot?
Где брать современные научные публикации по машинлернингу?
Какие фреймворки юзают?
Аноним 17/11/17 Птн 20:40:15  1093643
>>1093612
А ничего, что вся нейронная сеть - это перемножение тензоров? И те самые линейные модели, которые ты хуесосишь - кирпичики, из которых сделана нейронка?
Аноним 17/11/17 Птн 21:01:00  1093654
>>1093638
В шапке базовый вкат, далее нужно следить за статьями, смотреть что обсуждается, на чем делают SotA.
ПОЧЕМУ ЭТО РАБОТАЕТ до конца не знает никто. Вся теория, столетиями разрабатываемая статистиками, отправилась стройными рядами на помоечку, т.к. по классическим представлениям модели с таким диким количеством параметров должны моментально заоверфитить датасет. Этого не происходит, вместо этого нейроночки учатся обобщать, и на практике оказалось, что сеть можно расширять неограниченно, при этом обобщение обычно улучшается, вопреки предсказаниям, которые ты можешь прочесть у Бишопа.
Объяснение этого всего по-хардкору есть в deeplearningbook.

Самый хот сейчас по моим представлениям: GANs, reinforcement learning, differentiable neural computer. Это все меняется день ото дня, например последние несколько дней много обсуждения капсул Хинтона. Неизвестно, забудут ли их на следующей неделе, или через год забудут все остальное, а останутся только капсулы.
Из фреймворков на данный момент на троне питорч, претендует на трон тензорфлоу.
Аноним 17/11/17 Птн 21:09:03  1093658
>>1093643
А что если я скажу тебе, что
- ты не знаешь, что значит слово тензор
- в книге Бишопа это слово не употребляется
- 99% теории о линейных моделях, изложенной у Бишопа, применимо исключительно к линейным моделям и не работает в нейроночках
- нейроночка сделана не из линейных моделей
Аноним 17/11/17 Птн 21:19:55  1093660
>>1093654
>Это все меняется день ото дня, например последние несколько дней много обсуждения капсул Хинтона.
А где ты все эти обсуждения читаешь?
Аноним 17/11/17 Птн 21:21:15  1093661
>>1093660
https://www.reddit.com/r/MachineLearning/
Аноним 17/11/17 Птн 22:32:06  1093720
>>1093658
>- 99% теории о линейных моделях, изложенной у Бишопа, применимо исключительно к линейным моделям и не работает в нейроночках

1. Кто тебя заставляет читать из всего Бишопа только линейные модели?
2. Линейные модели это половина продакшена, свои фамильярные кукареки прибереги для кружка каглеров.
Аноним 18/11/17 Суб 00:31:59  1093752
>>1093658
А я знаю, что такое тензор.
Аноним 18/11/17 Суб 00:34:52  1093754
>>1093752
Респект.
Аноним 18/11/17 Суб 05:01:15  1093826
Правильно ли я понял, что в GAN сетях в генерирующей сети входов может быть сколько душе захочется(там они сами распределятся какие входы какому параметру соответствуют при обучении), а выход - 32D тензор в случае генерации изображения, а дискриминативная сеть имеет 32D вход и два выхода - сгенерированное изображение и наше изображение или можно даже один выход(в этом случае ждем когда при генерации будет выход 0.5 в большинстве случаев)
Аноним 18/11/17 Суб 07:07:55  1093834
>>1093826
Архитектуры разнятся, но принцип ты понял верно. Выход у дискриминатора, естественно, один - это сигмоид, выдающий оценку вероятности того, что картинка настоящая.
Аноним 18/11/17 Суб 07:15:16  1093836
>>1093826
>32D тензор
три 2D тензор
>генерации будет выход 0.5 в большинстве случаев

точнее не 0.5 а выше 0.5 т.е. сеть не отличает от натуральной картинки(1-натуральная картинка)
Аноним 18/11/17 Суб 07:30:54  1093837
>>1093836
Это как раз не важно. Мы не ждем, когда дискриминатор будет выдавать какие-то определенные значения. Критериев сходимости для GAN в принципе нет, насколько я знаю. Также разработано много вариантов функций потерь.
Аноним 18/11/17 Суб 11:49:48  1093861
>>1093654
>ПОЧЕМУ ЭТО РАБОТАЕТ до конца не знает никто. Вся теория, столетиями разрабатываемая статистиками, отправилась стройными рядами на помоечку,
На помоечку отправляются хипстеры с коворкингами. Конечно, вы не знаете, почему это не работает, потому что вы дегенераты, считающие устаревшим все, написанное до ноября 2017 года. А на самом деле, никуда вы не уйдете от теории статистического обучения Вапника, которая объясняет работу всех вообще возможных алгоритмов машоба. Но дебилы Вапника не читали, потому что все равно не осилят, отсюда и кукареканья "никто не знает как это работает". Вы себя за всех-то не выдавайте.
Аноним 18/11/17 Суб 12:05:34  1093866
>>1093861
А что у Вапника читать? "The Nature of Statistical Learning Theory"?
Аноним 18/11/17 Суб 12:07:24  1093867
>>1093866
Да.
Аноним 18/11/17 Суб 13:18:58  1093897
>>1093861
Ну вот тут ты не прав, бро. Хипстеры хуесосы, но VC-теория – штука непрактичная и мало что объясняет. Ну или приведи пример, где бы хотя бы VC-размерность нейронки как-то корректно оценивали.
Аноним 18/11/17 Суб 14:20:07  1093920
Как называются задачи, когда нужно не только распознать объект на изображении, но и определить его положение?
Аноним 18/11/17 Суб 17:19:55  1094000
>>1093920
Object localisation
Аноним 18/11/17 Суб 18:20:11  1094021
>>1093897
>приведи пример, где бы хотя бы VC-размерность нейронки как-то корректно оценивали.
По перцептронам полно таких работ. Насчет чего-то более другого - а кто будет этим заниматься? Хипстеры? Так там мозги нужны. Дело в том, что нет понимания, что все алгоритмы машобчика считают примерно одно и то же. И подобные >>1093654 кловны несут заведомую хуйню, кукарекая, что все эти новомодные манянейроночки делают что-то отличное от аппроксимации функций от многих переменных суперпозицией частичных функций от пары переменных, и что все это ололо магия, которую придумали в этом году, а все написанное до 2017 нинужно. Это же просто смешно.
Аноним 18/11/17 Суб 20:05:16  1094052
>>1094021
>аппроксимации функций от многих переменных суперпозицией частичных функций от пары переменных
Сказочный долбоеб. Ну и что? Все алгоритмы могут быть исполнены с помощью машины тьюрига, это еще в 30 годах придумали. И что теперь, не нужно было развивать языки, операционные системы, придумывать различные специализированные алгоритмы? Много маняматематики создали практически применимых вещей?
Аноним 18/11/17 Суб 22:18:42  1094079
Так поясните раз и навсегда что такое машоб, statistical learning, deep learning и чем последнее отличается от просто применения нейронок которым всё это и называли до 2010 года, как это всё друг с другом относится и чем друг от друга отличается?
Аноним 18/11/17 Суб 22:44:04  1094082
бамп вопросу >>1093122
Аноним 18/11/17 Суб 22:46:05  1094083
>>1094082
Автоэнкодер и фото одних и тех же лиц с макияжем и без.
Аноним 18/11/17 Суб 22:48:56  1094085
>>1094083 а где они столько фоток подобных нашли? (глупый вопрос конечно)
Аноним 18/11/17 Суб 23:00:05  1094089
>>1094085
может пару тысяч отфотошопили
Аноним 18/11/17 Суб 23:15:51  1094090
>>1094079
Возьми да загугли.
Аноним 18/11/17 Суб 23:29:53  1094093
>>1094079
А может, ты просто возьмешь и прочтешь шапку? Могу дать тебе персональные уроки, 5 биткоинов в час. Будем вместе читать deeplearningbook вслух и с выражением.
Аноним 19/11/17 Вск 05:38:08  1094167
>>1094052
> Все алгоритмы могут быть исполнены с помощью машины тьюрига, это еще в 30 годах придумали.
И хуле тогда пиздеть про какую-то магию хипсторских манянейроночек? Это элементарная математика, не идущая за пределы теории Вапника. Развитие никто не отвергает, просто нужно понимать, что делаешь. А не закатив глаза кукарекать что статистика хуйня, математика хуйня, все вообще хуйня кроме хипстерских пейперов за последний месяц. Шляпу соси с такой пропагандой.
Аноним 19/11/17 Вск 06:51:15  1094172
>>1094167
Ты и понятия не имеешь о чем ты говоришь, дебил.
Аноним 19/11/17 Вск 08:27:47  1094189
15103799277930.gif (1053Кб, 500x312)
>>1094172
Или обосновывай или иди гори в другом месте.
Аноним 19/11/17 Вск 10:36:49  1094230
>>1094189
Обосновал тебе за щеку, проверяй.
Аноним 19/11/17 Вск 11:21:39  1094246
>>1092667
Добро пожаловать. Пожуй говна теперь, саентист мамкин. Можешь открывать свои курсы по ДИПЛЕРНЕНГУ и рассуждать 300к/с это норм или маловато будет.

>>1092670
С разморозкой, маня. Netflix Prize прошел 10 лет назад.
Аноним 19/11/17 Вск 12:50:45  1094271
>>1092667
Распознавание номеров машин. Номеров знаков.
Распознавание и парсинг сканированных документов.
как жить-то, блядь, как жить Аноним 19/11/17 Вск 13:09:58  1094287
Screenshot from[...].png (132Кб, 746x877)
Ну что я могу сказать. С NLP все не просто плохо, это полный, леденящий душу пиздец. Я на этой параше писал уже на эту тему. Суть в том, что мне нужен хоть какой-то метод рассчитывающий расстояние между фразами например, в векторном пространстве. Есть совершенно замечательные методы для этого, реализованные в виде либы для R - LSAfun. Единственная проблема в том, что оно не работает с большими датасетами, т.е. если нужен хотя бы уровень дампа педивикии - бреешься. Я тут просил подсказать альтернативы, однако никто нихуя не знает и мне пришлось искать самому, попутно общаясь с авторами (т.к. кроме них опять же никто внятно не смог ответить). Честно говоря, я просто в ахуе.
1) fasttext. хуе-мое, у нас только расстояния между словами, с фразами никак - для этого есть word's mover distance, для R оно реализовано в виде пакета text2vec.
2) text2vec. хуе-мое, у нас только отдельные слова, фразы итд не завезли.
3) word2vec. в R вообще не представлен как нечто цельное (угадайте, что выбрасывают во всех реализациях - да, работу с фразами).
4) word2vec, оригинальный код. выпилен, но доступен на гитхабе (ничего не вырезано, не перекодироавано!). В примере использован левый датасет (100мб, первый миллиард слов из педивикии), в оригинальном пейпере другой (3,5гиг, гугловский, вроде обработанный дамп чего-то из новостных источников). Итого - пикрелейтед, меньше 2% точности.
Да вы что прикалываетесь штоле?!
Аноним 19/11/17 Вск 13:56:10  1094312
>>1094287
>NLP
добро пожаловать в мир ии, там кругом жопа, если ты конечно же не маняпетухатик-теоретик. нахуй тебе векторное пространстао? начитался всякой хуиты и удивляешься, что она не работает
Аноним 19/11/17 Вск 14:03:22  1094316
>>1094167
Я не знаю где там про магию пиздят? Про то что это обычный аппроксиматор в каждой дырке объясняют. Но хуже нейроночки от этого не становятся.
Если ты хочешь чтобы было строгое мат. доказательство того что такая-то нейроночка с такими то параметрами распознает песьи анусы с такой-то точностью то ждать тебе придется очень долго. С другой сторны ты же пользуешься софтом, операционками, двачем, в котрых и не пахнет математическим обоснованием того что это работает и магией это не считаешь.

Ну вот я знаю и статистику и математику, и твою манятеорию вапнику, однако из практической пользы оно только удовлетворяет мое любопытство и помогает легче читать особо хипстерские пейперы.

А вот несколько пейперов где наглядно показывают как решить конкретную задачу пользы дают не в пример больше и внезапно там тоже никакой магии, все расписано почему были приняты такие-то решения. Я не тот анон, который засирал математику, но соснут шляпу как раз математикодрочеры.

Аноним 19/11/17 Вск 14:03:52  1094317
>>1094312
>нахуй тебе векторное пространстао? начитался всякой хуиты и удивляешься, что она не работает
Тебе известны другие варианты представления слов для нужд NLP? Да, там ровно два стула - dtm (document-term matrix) и tcm (term co-occurence matrix). Именно с ними (или с их взвешенными вариантами типа tfxidf) работают все алгоритмы.
Аноним 19/11/17 Вск 14:05:47  1094319
>>1094287
>Суть в том, что мне нужен хоть какой-то метод рассчитывающий расстояние между фразами например, в векторном пространстве.
>в виде либы

Так тебе метод нужен, или либа?
Я с вас, вкатывальщики, немножко в ахуе.
Аноним 19/11/17 Вск 14:07:09  1094320
>>1094317
>нужд NLP
а кокая нужда? перевод, синтез, расспознавание?
Аноним 19/11/17 Вск 14:08:19  1094324
>>1094312
> там кругом жопа
Мне как раз нужно публиковаться. Давай, дай мне 10 тем котороые надо развить.
Аноним 19/11/17 Вск 14:08:21  1094325
>>1094317
>Тебе известны другие варианты представления слов для нужд NLP? Да, там ровно два стула - dtm (document-term matrix) и tcm (term co-occurence matrix). Именно с ними (или с их взвешенными вариантами типа tfxidf) работают все алгоритмы.
Какой извращенный бред.
Как изысканно.
Аноним 19/11/17 Вск 14:09:32  1094329
>>1094319
>Так тебе метод нужен, или либа?
Либа.
>>1094320
Расстояние между фразами (семантическая близость разных фраз).
>>1094325
Как будто ты знаешь альтернативы.
Аноним 19/11/17 Вск 14:11:50  1094333
>>1094324
>надо развить
начни с простого, с синтеза русской речи, с учетом просодии.
Аноним 19/11/17 Вск 14:13:13  1094334
>>1094329
>семантическая близость разных фраз
нереализуема. юзай синонимы и статистику.
Аноним 19/11/17 Вск 14:17:15  1094338
>>1094329
>Нужно все готовое и чтобы за меня все сделали
>Как будто ты знаешь альтернативы.
Может и знаю, но пожалуй промолчу.

>>1094334
>нереализуема. юзай синонимы и статистику.
А как же гугл?
Аноним 19/11/17 Вск 14:17:22  1094339
>>1094334
Давно реализуема. И ты с такими знаниями что-то советовать будешь?
Аноним 19/11/17 Вск 14:18:13  1094340
>>1094338
>Может и знаю, но пожалуй промолчу.
Нихуя ты не знаешь.
Аноним 19/11/17 Вск 14:20:01  1094341
>>1094338
>А как же гугл
у них статистические методы, прчем все это говно более менее работает только для такого примитивного языка как английский, а вот с тем же русским они уже сосут, флексии и все такое.
Аноним 19/11/17 Вск 14:20:38  1094342
>>1094339
>Давно реализуема
пруфы
Аноним 19/11/17 Вск 14:35:19  1094351
>>1094333
Зачем мне синтезировать русскую речь, если я хочу опубликовать это?
Аноним 19/11/17 Вск 14:37:12  1094352
>>1094351
ясно, школотрон опубликовальщик.
Аноним 19/11/17 Вск 14:37:48  1094353
>>1094352
Русский язык никого не волнует, трата времени.
Аноним 19/11/17 Вск 14:37:54  1094354
>>1094351
>опубликовать
для школьной стенгазеты можешь выбрать тему полегче.
Аноним 19/11/17 Вск 14:38:54  1094355
>>1094353
>Русский язык никого не волнует, трата времени
ну так уебуй в редедет
Аноним 19/11/17 Вск 14:40:17  1094356
>>1094341
Ну в общем да, гугл не торт. Ну и ладно.

Накатал простыню, но удалил.
Так-то да, семантическую схожесть считать очень трудно.
Аноним 19/11/17 Вск 14:41:30  1094357
>>1094355
Эта вата порвалась, несите новую.
Аноним 19/11/17 Вск 14:46:37  1094360
>>1094357
>вата
пятак, как ты сюда пробрался?
Аноним 19/11/17 Вск 17:08:11  1094452
>>1094342
>пруфы
Я же даже название алгоритма написал - word's mover distance. Алсо, LSA в это может еще с 90-х годов.
Аноним 19/11/17 Вск 17:23:16  1094463
>>1094452
>word's mover distance
неработоспособное говно
Аноним 19/11/17 Вск 17:30:52  1094467
>>1094463
Ты так сказал? Почему ты такой тупой? Ты в госдуме работаешь?
Аноним 19/11/17 Вск 17:33:30  1094469
>>1094287
Банальный doc2vec не пробовал? В Gensim на питон есть, про остальное не знаю.
Можешь придумать что-то на основе TextRank, но будет медленно.
Или очередной банальный word2vec, k-means кластеризацию и там попробовать посмотреть на расстояния до кластеров?
Еще я сейчас погуглил - на R есть tensorflow, а написать word2vec, особенно не самый быстрый, не так уж и сложно. Я уверен, что он уже реализован на гитхабе при этом.
А еще с тензорфлоу ты можешь всегда взять сделать простую сиамскую нейроночку, и давать на выходе - одна и та же фраза или нет, как многие делали в quora question pairs. Выходная сигмоида (или другая функция) и будет твоим расстоянием.

Хотя лет 5 назад, когда я в последний раз запускал R, он у меня валился уже на csv в 100мб. Не уверен, что R возможно использовать, если они ничего не поменяли.

А в LSA матрицы разрастаются до сотен гигабайт на больших выборках (хотя и не очень даже и больших), поэтому и не работает, но, наверное, ты и сам это знаешь.
Аноним 19/11/17 Вск 17:50:12  1094478
>>1094469
Ему нужно именно СЕМАНТИЧЕСКОЕ расстояние.
Что как бы предполагает большую базу данных для сколь нибудь вменяемых результатов.
Аноним 19/11/17 Вск 18:01:19  1094485
1.png (65Кб, 559x373)
Пикрелейтед примерно то, о чем я говорю. Фразы "Obama speaks to the media in Illinois" и "The President greets the press in Chicago" после того как из них убираются stopwords не имеют ни одного общего слова. Синтаксически это абсолютно разные фразы, а семантически - ровно одна и та же хуйня. Задача - алгоритм, который мог бы выявить сходство именно подобных словосочетаний.
Аноним 19/11/17 Вск 18:06:15  1094486
>>1094246
>Netflix Prize прошел 10 лет назад.
И чо? Рекомендательные системы везде сейчас, и везде нужны. Уже скоро венда будет предлагать "люди, которые запускали эту программу, запускали так же и вот эти".
Алсо, то, что выиграло нетфликс прайз это неюзабельное нагромождение моделей.
Аноним 19/11/17 Вск 18:18:02  1094493
>>1094485
>а семантически - ровно одна и та же хуйня
Лол нет.

>Задача - алгоритм, который мог бы выявить сходство именно подобных словосочетаний.
word's mover distance
Инвалид ты такой этакий.
Аноним 19/11/17 Вск 18:25:41  1094501
>>1094469
>Gensim
Интересная вещь, но я в пистон не умею.
Аноним 19/11/17 Вск 18:25:43  1094502
>>1094485
Подкину сюда же

https://www.kaggle.com/c/quora-question-pairs

https://www.youtube.com/watch?v=CBslNI9jNoE
Аноним 19/11/17 Вск 18:35:25  1094509
>>1094485
Казалось бы а чего ты хотел для общего случая. Чтобы слово "иллинойс" было близко к "чикаго" во всех подобных фразах, а в других фразах было близко к чему-то другому?
Какими-то плясками с бубном вы тут занимаетесь, ребята.
залётный математик
Аноним 19/11/17 Вск 18:36:56  1094510
Короче читал-читал книги по мл, но заебался и бросил.
Аноним 19/11/17 Вск 19:53:14  1094576
>>1094502
>Подкину сюда же
https://www.kaggle.com/c/text-normalization-challenge-russian-language#description

ебать какое дно этот ваш гугл
Аноним 19/11/17 Вск 20:09:57  1094581
>>1094576
это соревнование действительно странное, учитывая, что данные аннотированы автоматически и неправильно. Но гугл большая компания, у них куча денег, и они просто дают гранты.
К самому гуглу, думаю, эти люди имеют опосредованное отношение.
Аноним 19/11/17 Вск 20:22:15  1094586
2-Table2-1.png (9Кб, 408x366)
>>1094581
просто эти долбоебы узнали про падежи

https://www.semanticscholar.org/paper/Lightly-supervised-learning-of-text-normalization-Sproat/40a11a5a686d2580935d263f86b0b6d74758c89c
Аноним 19/11/17 Вск 20:23:47  1094587
>>1094586
з.ы. вполне себе проффесор из гугла

https://research.google.com/pubs/RichardSproat.html

я спокоен за нлп, эти клоуны не затмят моего гения
Аноним 19/11/17 Вск 21:11:19  1094620
Здравствуйте, коллеги. Прошу помочь с одним вопросом. Требуется написать программу, которая принимала бы на вход изображение. На изображении имеется прямоугольный объект размером с банковскую карту. Требуется обрезать изображение или найти границы объекта максимально точно. Фон может быть совершенно разным, объекты всегда похожи. Имеет ли смысл использовать какую-то предобученную сеть (учитывая то, что объектов для обучающей выборки много найти не удастся)? Или же использовать стандартные подходы компьютерного зрения с градиентом и т.п.?
Аноним 19/11/17 Вск 21:14:19  1094626
>>1094620
Нейроночки только во вред. Попробуй хаар-каскады же.
Аноним 19/11/17 Вск 21:16:25  1094628
Почему все нейроночки сейчас делают на питоне? Разве нет никаких более достойных языков программирования?
Аноним 19/11/17 Вск 21:20:11  1094637
>>1094628
Есть torch, он топ. Часто делают на питоне, потому что датаслесарисаентисты математики, а не кодеры, и не хотят разбираться в программировании. И что характерно, это правильный подход.
Аноним 19/11/17 Вск 21:21:34  1094638
>>1094628
Если угораешь по няшной сишке, пользуй черную магию - https://pjreddie.com/darknet/
Аноним 19/11/17 Вск 21:30:16  1094645
>>1094626
Я читал какое-то исследование, что нейроночки в очко ебут каскады.
Аноним 19/11/17 Вск 21:31:14  1094647
>>1094628
Так питон - это типа сахар сверху,, а сами нейронки конвертируются во что-то более низкоуровневое.
Аноним 19/11/17 Вск 21:31:55  1094649
>>1094645
Я читал какое-то исследование про то что твою мамку.
Найти прямоугольник на картинке быстро и эффективно это к каскадам. Найти что-то сложное - к нейронкам.
Аноним 19/11/17 Вск 21:41:14  1094653
>>1094628
А на чем ты хочешь? Чем тебя не устраивает питон?
Сами нейронки пишут на плюсах или сишке.
Аноним 19/11/17 Вск 21:41:40  1094655
>>1094649
>Найти что-то сложное - к нейронкам
дооооо, как там в мяняматических фантазиях?
Аноним 19/11/17 Вск 21:57:15  1094664
>>1094620
Смотри по тегу image segmentation. Здесь объясняются текущие топ архитектуры: http://blog.qure.ai/notes/semantic-segmentation-deep-learning-review
Это и есть стандартный подход компьютерного зрения.
Аноним 20/11/17 Пнд 02:38:56  1094768
8.gif (74Кб, 64x64)
2.gif (38Кб, 64x64)
13.gif (79Кб, 64x64)
Наконец-то нейронки начали генерировать наркоманскую годноту.
Аноним 20/11/17 Пнд 03:50:43  1094789
>>1094768
Этому год уже: http://carlvondrick.com/tinyvideo/
Аноним 20/11/17 Пнд 05:50:15  1094808
Свежий обзор по последним GAN'ам: http://guimperarnau.com/blog/2017/11/Fantastic-GANs-and-where-to-find-them-II
Аноним 20/11/17 Пнд 08:37:16  1094842
>>1094768
Суть ДИПЛЕРНЕНХА одним предложением.
Аноним 20/11/17 Пнд 12:13:59  1094886
>>1094808
Два чаю, годная статься.
Аноним 20/11/17 Пнд 15:59:29  1094974
>>1082641 (OP)
Ребзя, нормальный ли курс на степике по нейросетям ? стоит ли с него вкатываться

stepik[точка]org/course/401/syllabus
Аноним 20/11/17 Пнд 21:32:20  1095153
dbb70e92b3b9dd8[...].jpg (350Кб, 1131x707)
>>1094974
Да, он простенький и приятный. Не то чтобы после него ты сделаешь пикрил, но много нового узнаешь.
Аноним 21/11/17 Втр 00:04:06  1095242
>>1082641 (OP)
Прочитал, что машинный интелехт использует для принятия решения предыдущие наблюдения, и из каждого наблюдения берёт такие-то параметры, например, цвет, форму, размеры и тд. Но как качество переходит в количество, то есть как программа после N наблюдений должна определить нечто, что подходит под общее правило описания объекта (абстракцию), но может быть непохожим на предыдущие наблюдения ?
Аноним 21/11/17 Втр 00:50:41  1095259
>>1095242
Если есть какие-то скрытые зависимости между параметрами, которые ты используешь в обучении(цвет, форма, размер и т.д.) то методы машоба могут найти эти зависимости в явном или неявном виде.

На языке маняматематики это как правило выражается тем что ты пытаешься найти глобальный минимум функции потерь в многомерном пространстве. А тренировочные данные(в данно случае все предыдущие наблюдения) определяют рельеф функции в этом пространстве.


Аноним 21/11/17 Втр 05:05:49  1095339
>>1095242
Любой машоб это аппроксимация функций зависимости выходов от входов, либо группировка наблюдений по степени их схожести, например по минимуму расстояния между векторами в евклидовом пространстве.
>>1095259
> На языке маняматематики э
Уебывай, чучело. Кроме математики там нет ничего, а ты уже сто раз показал, что не в теме абсолютно.
Аноним 21/11/17 Втр 13:26:14  1095478
>>1095339
>ты уже сто раз показал, что не в теме абсолютно.
Иди галоперидольчику ебани сперва.
>Кроме математики там нет ничего
Хех, не более.
Аноним 21/11/17 Втр 20:14:40  1095686
>>1095478
Ты дурной тупень.

Мимокрокодил.
Аноним 22/11/17 Срд 16:36:10  1096121
>>1095686
>мимокрокодил
Кекус
Аноним 22/11/17 Срд 16:41:00  1096125
>>1082641 (OP)
Есть на русском языке мануалы?
Аноним 22/11/17 Срд 17:18:50  1096142
>>1096125
да
Аноним 22/11/17 Срд 21:25:17  1096279
test
Аноним 22/11/17 Срд 21:27:39  1096280
neural-manifold.png (35Кб, 390x411)
Еще один годный блогпост про состояние дел в нейроночных науках на сегодняшний день: http://blog.evjang.com/2017/11/exp-train-gen.html
Аноним 22/11/17 Срд 23:50:36  1096343
А топовое место у нас в области нейронок и диплёринга это по-прежнему яндекс и циб?
Аноним 23/11/17 Чтв 01:01:34  1096367
>>1096343
Топовое место не у нас.
Аноним 23/11/17 Чтв 14:55:43  1096570
>>1096367
Так к неунам с нулём опыта не возьмут, нужно же где-то руки набивать.
Аноним 23/11/17 Чтв 14:57:33  1096571
>>1096570
Набивай руки на PhD
Аноним 23/11/17 Чтв 15:01:55  1096575
>>1096571
> PhD
> в рашке
Аноним 23/11/17 Чтв 15:05:08  1096576
>>1096575
Поступай не в России?
Аноним 23/11/17 Чтв 15:11:50  1096580
>>1096576
Сомневаюсь что меня куда-то возьмут с пидорахошарагой.
А заного 4 года бакалавра брать как-то ну его нахуй.
Аноним 23/11/17 Чтв 15:16:10  1096581
>>1096580
В некоторых странах бакалавриат всего 3 года и ты можешь перезачесть часть предметов если у них примерно одинаковое название, описание и количество часов/кредитов ECTS.
Аноним 23/11/17 Чтв 15:31:34  1096588
Безымянный.png (17Кб, 917x228)
Здравствуйте, я хочу попробовать scikit. Я ничего не знаю, просто хочу попробовать задачу регрессии. Нашёл на хабре пост с примером программы: https://habrahabr.ru/post/206306/

Программа: https://ideone.com/36rgGb

https://ideone.com/36rgGb

Я не могу запустить эту программу, потому что выходят следующие ошибки, которые показаны в прикрепленной картинке. Подскажите, пожалуйста, как справиться с данными ошибками.

Я пробовал всяко преобразовать X и Y, то .values, то в array, то в asarray, но всё-равно ошибка не дает запуститься, только ошибка меняется на Unknown label type: 'continuous' using sklearn in python.

Помогите, я ничего не понимаю, это ж пост из хабра, раньше же эта прога, наверное, как-то же работала.
Аноним 23/11/17 Чтв 16:12:26  1096603
>>1096588
Гугли ошибку она в конце вывода.
>пост с хабра
Хабр - кусок говна. На сайте сайкита же есть примеры кода для разных методов, не?
Аноним 23/11/17 Чтв 16:17:00  1096604
>>1096603
Я в английском - кусок говна, поэтому я не могу воспользоваться англоязычным сайтом.

Я гуглил на английском, я мало что понял, ибо я плохо знаю английский, вроде, там в трех ситуациях советовали 1).value поставить, 2)в 1D преобразовать asarray-ем и 3)преобразовать с помощью помощью array()

Я попытался и там получилась другая ошибка Unknown label type: 'continuous' using sklearn in python.

Ну и все, я облажался по полной.
Аноним 23/11/17 Чтв 17:48:06  1096658
Поясните человеческим языком, что такое регуляризация. В педивикии ероглифы какие-то.
Аноним 23/11/17 Чтв 18:06:50  1096669
>>1096658
Тебе 10 лет и у тебя есть суровый батя. Ты хочешь, например, заниматься математикой, а он заставляет ходить на какой-нибудь футболобаскетбол. И если вдруг палит, что ты вместо спорта опять своими уравнениями в частных производных балуешься, то неистово пиздит тебя с коэффициентом, пропорциональным количеству пропущенных занятий. Но ведь нельзя же без математики, а то совсем бревном останешься! Поэтому ты начинаешь совмещать спорт и свои анальные заигрывания с абстракциями.
Аноним 23/11/17 Чтв 18:21:41  1096675
>>1096658
Не стоит вскрывать эту тему.
Аноним 23/11/17 Чтв 19:14:01  1096702
>>1096571
А есть что?
Аноним 23/11/17 Чтв 20:16:50  1096745
>>1096581
Так есть-то что? Заебали советчики с миллионами долларов в шкафу, для которых это не проблема.
Аноним 23/11/17 Чтв 20:19:30  1096747
>>1096745
Получай стипендию, проси больше стипендий, еще больше стипендий, и если ты девушка - то есть специальные стипендии для тян в технических науках от успешнотян с деньгами. А еще есть студенческие кредиты.
Аноним 23/11/17 Чтв 20:21:59  1096750
>>1096604
Олег, ты?

for i in range(Ytrn.shape[1]) - вот тут что происходит? Что такое Ytrn.shape[1]? Это же число, как ты по нему итерируешься?
Аноним 23/11/17 Чтв 20:23:18  1096751
>>1096747
Щас бы визу дали без счета в банке или гранта.
В Германии вон требуется минимум 9к евро на счету для учебы.
Аноним 23/11/17 Чтв 20:27:57  1096756
>>1096751
Если у тебя денег нет и ты не можешь их заработать - нахуй на дваче срёшь об этом? Они так не появятся же. Или ты думаешь, что здесь дадут каких-то секретных советов?
Аноним 23/11/17 Чтв 21:17:51  1096799
Здравствуйте, скажите, пожалуйста, полиномом какой степени можно более-менее смоделировать экспоненту? Степень желательно как можно меньше.

Я смотрел видео и там нейронка подобрала полином 3 степени для синусоиды. Подскажите, для экспоненты степень какая подойдет?
Аноним 23/11/17 Чтв 21:28:39  1096828
>>1096799
>дравствуйте, скажите, пожалуйста, полиномом какой степени можно более-менее смоделировать экспоненту? Степень желательно как можно меньше.
>
>Я смотрел видео и там нейронка подобрала полином 3 степени для синусоиды. Подскажите, для экспоненты степень какая подойдет?

1 степень.
Спасибо за вопрос, взлольнул.
Аноним 23/11/17 Чтв 21:40:07  1096840
>>1096756
Нет, просто заебали охуительные советы вида "зачем тебе стажерство Яндекса, просто поступи в MIT".
Аноним 23/11/17 Чтв 21:42:25  1096844
>>1096840
Хороший совет, вообще говоря.
Аноним 23/11/17 Чтв 21:45:31  1096853
>>1096828
В чем смех? Я не знаю математики, и просто хочу узнать минимальную степень, которую можно задать полиному для tensorflow, чтобы моделировать экспоненту.

Угадать степень я не могу, ибо помимо степени надо ещё и learning_rate и коэффициенты для регуляризации угадывать.

Поэтому интересуюсь у анонимуса
Аноним 23/11/17 Чтв 21:47:40  1096859
>>1096853
1) смотришь на график экспоненты
2) профит!

Ты из джаваскрипт-треда сюда протек, что не знаешь, как выглядит экспонента?
Аноним 23/11/17 Чтв 21:52:09  1096865
>>1096859
Тогда я могу выбрать слишком большую степень, потому что могло оказаться, что можно было выбрать намного меньшую, если удачно подобрать learning_rate и коэффициенты для регуляризации.

Эффективнее узнать у знающих людей, чем ошибиться и никогда об этом не узнать.
Аноним 23/11/17 Чтв 21:52:28  1096866
>>1096853
>В чем смех?
Экспонента моделируется экспонентой.


>Я не знаю математики, и просто хочу узнать минимальную степень, которую можно задать полиному для tensorflow, чтобы моделировать экспоненту.
1 степень.
Первая степень.
По буквам нужно повторять?
Аноним 23/11/17 Чтв 21:53:00  1096867
>>1096853
Подучи теорию, пес.
А вообще в случае со сраной экспонентой ты бы мог добавить пару строчек чтобы пробежать по всем степеням и посмотреть где меньше ошибка.
Аноним 23/11/17 Чтв 21:55:32  1096870
>>1096866
>Экспонента моделируется экспонентой.
Допустим я не знаю, что это экспонента и ищу полином с какой-то степенью.

Первая степень - это такой троллинг насмехающийся о том, что я написал слово "минимальная"?
Аноним 23/11/17 Чтв 21:56:25  1096873
>>1096867
>где меньше ошибка.
Самая меньшая ошибка может быть у переобученной модели с слишком большой степенью
Аноним 23/11/17 Чтв 21:59:10  1096874
>>1096867
Да и бегать по всем степеням тоже от удачи зависит, ведь к каждой степени надо будет свои learning_rate и коэффициенты для регуляризации подбирать. Можно ошибиться и не узнать, что какая-то степень могла бы быть удачной
Аноним 23/11/17 Чтв 23:03:45  1096910
И раскладывоешь экспоненты в ряд тейлорса, и берёш первых n членсов, и отбрасываеш остольные и оставляеш нейропарашу даунам которые матёшку не знают.
Аноним 23/11/17 Чтв 23:05:40  1096912
>>1096865
Ты графики полиномов тоже не видел? х квадрат там, х куб.
Аноним 23/11/17 Чтв 23:43:32  1096934
>>1096840
в рашке выше конкуренция, чем в штатах или европе, так как у нас образование и знания получить легко, бабок ни у кого нет и все готовы за еду работать
Аноним 23/11/17 Чтв 23:51:53  1096936
>>1096912
Видел, квадрат похож, если половину графика удалить и ветвь подкорректировать.
Куб тоже чем-то похож, если часть отсечь.

Короче, я не знаю, не могу понять как тензорфлоу отсечет не нужное, поэтому мне остается только спрашивать у вас, ибо вы же умудренные многолетней практикой, а я только сегодня начал.
Аноним 23/11/17 Чтв 23:53:15  1096938
>>1096910
Спасибо
Аноним 23/11/17 Чтв 23:53:57  1096939
>>1096934
Образование в Рашке получить легко? Еьать дебил
Аноним 23/11/17 Чтв 23:59:44  1096940
>>1096912
>>1096910
Ещё с толку сбивает, что на stepic.org лысый парень объяснял, что для синусоиды достаточно полинома 3 степени. А на habrahabr, постивший человек, для синусоиды полином 30 степени сделал в тензорфлоу.

Я поэтому вообще ничего не понимаю.
Аноним 24/11/17 Птн 02:13:44  1097004
>>1096870
>>Экспонента моделируется экспонентой.
>Допустим я не знаю, что это экспонента и ищу полином с какой-то степенью.

>Первая степень - это такой троллинг насмехающийся о том, что я написал слово "минимальная"?

Нет, это не троллинг, тебе нужна первая степень.
Аноним 24/11/17 Птн 02:34:59  1097008
Безымянный.png (11Кб, 604x432)
>>1097004
Синяя кривая - то что должно получиться. Оранжевая прямая -то выходит при первой степени
Аноним 24/11/17 Птн 02:40:02  1097009
>>1096936
>>1096940
>>1097008
Ты хуйней какой-то сейчас занимаешься.
Подтяни теорию минимально, а потом уже берись за код @ задавай вопросы. Потому что сейчас у тебя вопросы что-то на уровне где поставить точку запятой в проге на си.

Умудренные тут сидят или нет, но врядли у кого-то будет желание сидеть и разжевывать тебе все как первокласснику.
Аноним 24/11/17 Птн 02:43:11  1097010
>>1097008
И кстати на графике у тебя не экспонента, если что.
Аноним 24/11/17 Птн 02:44:04  1097011
>>1097009
>у кого-то будет желание
Если вдруг у кого-то будет, то пусть кто-нибудь подскажет степень
Аноним 24/11/17 Птн 02:45:55  1097013
>>1097010
Развернул её в другую сторону, по форме тоже самое
Аноним 24/11/17 Птн 02:48:44  1097014
Хотя может и она, а я в глаза ебусь, на кусок гиперболы это все таки меньше похоже, но не суть.
Аноним 24/11/17 Птн 02:57:24  1097017
>>1097008
>Синяя кривая - то что должно получиться. Оранжевая прямая -то выходит при первой степени
Что-то не так делаешь значит.
Аноним 24/11/17 Птн 02:57:48  1097018
>>1097017
>>1097008
Ты сеть хоть обучаешь или как?
Аноним 24/11/17 Птн 03:05:19  1097020
>>1097017
>>1097018
Вроде есть какое-то некачественное обучение, при какой-нибудь 20-30 чуть больше походит на синюю. К чести, первой степени, оранжевая линия внизу здорово совпала с синей.

Ну это неважно, ибо всё-равно я не знаток тензорфлоу и я не мог с ходу качественно всё сделать.
Вообще всё о чём я интересовался - это о степени полинома, не хотел так много писать здесь ненужные подробности.
Аноним 24/11/17 Птн 13:47:23  1097146
>>1096939
легче, чем в штатах. А чего сложного в образовании в рашке? Корочку получает даже пьяный зомби, а бишопа прочитать и в интернете можно.
Аноним 24/11/17 Птн 13:57:30  1097152
>>1097146
>А чего сложного в образовании в рашке?
Коррупция, глупость, бюрократия для бюрократии.

>Корочку получает даже пьяный зомби
Мы же об образовании говорим, а не о корочке.
А так да, пьяные зомби ее легко и получают.
Аноним 24/11/17 Птн 14:21:26  1097160
Нагуглил щас Бишопа алгоритмы мл, и там ни одной ебучей мат.формулы. Какой-то уебок итт посоветовал мне Маршланда, ссу ему в рот.
Аноним 24/11/17 Птн 23:15:48  1097403
А правда, что роботы с нейронками вытеснят с работ людей? Не будет пролетариата, не будет бухгалтеров и экономистов. У богачей будут роботы, будет ещё больше, прямо море денег и ресурсов и они будут насиловать толпами юных женщин и устраивать гладиаторские бои между мужчинами?
Аноним 25/11/17 Суб 02:26:09  1097484
>>1097403
Да, все будет именно как ты написал.
Аноним 25/11/17 Суб 02:28:32  1097485
>>1097484
А как спасаться? Сами кодить нейронки учиться?
Аноним 25/11/17 Суб 02:41:49  1097491
>>1097485
Да, конечно. Ведь сейчас каждый богач закодит нейронку на тензорфлоу с закрытыми глазами.
Аноним 25/11/17 Суб 02:55:19  1097495
>>1097485
Поднимаешься на ту ступеньку соц. лестницы, которая в ближайшем будущем еще будет нужна и ебешь систему в рот и раздвигаешь булки навстречу прогрессу.
Аноним 25/11/17 Суб 03:45:32  1097501
>>1097491
>каждый богач закодит нейронку
Они себе Блина Гейтса купят
Аноним 25/11/17 Суб 04:39:13  1097507
>>1082641 (OP)
хочу майнить писечки
Аноним 25/11/17 Суб 14:16:18  1097566
>>1097403
Скорее бы!
Аноним 25/11/17 Суб 18:22:36  1097659
>>1097566
Не терпится поучаствовать в гладиаторских боях?
Аноним 25/11/17 Суб 18:35:38  1097663
>>1097659
Хочу шлепать других мужиков обмазанных маслом.
Аноним 25/11/17 Суб 18:43:47  1097670
Как делать нейроночки не умея программировать?
Аноним 25/11/17 Суб 18:46:16  1097673
>>1097670
Как все. импорт слесарный_инструмент как си
Аноним 25/11/17 Суб 20:04:13  1097711
>>1097670
Ни один машинный обучатель не умеет погромировать.
Аноним 25/11/17 Суб 21:29:56  1097751
https://lurkmore.to/%D0%9A%D0%BE%D0%BF%D0%B8%D0%BF%D0%B0%D1%81%D1%82%D0%B0:Python#.D0.9C.D0.B0.D1.88.D0.B8.D0.BD.D0.BD.D0.BE.D0.B5_.D0.BE.D0.B1.D1.83.D1.87.D0.B5.D0.BD.D0.B8.D0.B5
Аноним 26/11/17 Вск 21:44:56  1098386
1493406909673.jpg (47Кб, 1080x540)
Как сейчас обстоят дела с шифрованием нейроночек, чтобы они обучались, и при этом нельзя было скопировать?
Аноним 26/11/17 Вск 22:01:18  1098400
Обычно, как я понял, всё что подаётся на вход, для того, чтобы это процессить, в дальнейшем усредняется определённым образом, т.е нет никакой фильтрации входного/промежуточного сигнала: всё всегда смешивается в усреднённую "кашу с закономерностями". Есть ли какие-то способы обрабатывать сигнал в процессе исключая лишнее?
Аноним 27/11/17 Пнд 06:12:46  1098570
>>1098386
Тонкая пикча. А про шифрование не понял. Что должно быть нельзя скопировать? Тренировочные данные?
Аноним 27/11/17 Пнд 06:19:30  1098572
>>1098400
Слишком абстрактно говоришь. Ну не подавай свое лишнее на вход, и не будет оно в кашу смешиваться.
Аноним 27/11/17 Пнд 07:43:56  1098575
>>1098386
скопировать можно все
единственный способ защиты нейронки - гонять ее на своем сервере
Аноним 28/11/17 Втр 09:59:01  1099385
Почему ещё никто не сделал нейронку которая будет раздевать девушек на фото?
Аноним 28/11/17 Втр 10:00:55  1099386
>>1099385
У того кто может написать такую нейронку нет проблем с тем чтобы раздевать девушек.
Аноним 28/11/17 Втр 12:30:27  1099440
>>1099385
дай базу данных, сделаю
Аноним 28/11/17 Втр 18:04:03  1099640
>>1099385
Как коммерческий проект - мутновато с законностью и монетизацией.
Как проект для сиви - слишком девиантно, мало кто оценит, может отпугнуть работодателя.
Просто ради фана - слишком трудно.

Но наверняка кто-нибудь сделает кривоватую программу в ближайшие годы. Может, уже сделали - надо гитхаб прошерстить.
Аноним 30/11/17 Чтв 15:01:03  1100499
анонарии, подкиньте ресурсов, где удобно искать модные пейперы по нейроночкам
Аноним 30/11/17 Чтв 18:23:31  1100592
>>1100499
http://www.arxiv-sanity.com/
Аноним 30/11/17 Чтв 19:29:00  1100628
>>1100592
Спасибо, дорогой :3
Аноним 30/11/17 Чтв 20:10:09  1100647
https://hightech.fm/2017/11/30/ai-prof

Крупнейшие технологические компании делают ставку на искусственный интеллект, разрабатывая голосовых помощников и самоуправляемые автомобили. Однако специалистов в области искусственного интеллекта не хватает. Чтобы заполучить их, IT-гиганты готовы выплачивать даже начинающим разработчикам нейросетей суммы, поражающие воображение. Как ни странно, это только увеличивает дефицит ИИ-кадров.

Ждите волну вкатывальщиков.
Аноним 30/11/17 Чтв 20:25:21  1100655
>>1100647
В сраной нет айти-гигантов, а сумма, поражающая воображение, это 1000$/мес. В Америке, Индии волна уже пошла вообще-то.
Аноним 30/11/17 Чтв 20:50:26  1100675
>>1100655

Студенты вон за 100 баксов готовы жить на галерах ради САЛАРИ ГРОСС когда-нибудь и НЬЮ ЭКСПИЕРЕНС.
Аноним 30/11/17 Чтв 20:55:21  1100680
>>1100647

Ты переоцениваешь способности среднего российского студента. Там линейная регрессия уже вызывает перенапряжение межушного пространства и панику.
Аноним 30/11/17 Чтв 21:11:56  1100687
>>1100647
>волну вкатывальщиков.
Такая-то ирония посреди треда для вкатывальщиков.
Аноним 30/11/17 Чтв 21:17:20  1100689
>>1100687
Ой, ну ладно тебе, области всего несколько лет считай. Сейчас все вкатывальщики, просто кто-то немного дальше продвинулся.
>>1100675
Эти студенты абсолютно беспомощны и никому не нужны, у кого в конторах есть время их обучать нормально?
Аноним 01/12/17 Птн 10:37:40  1100873
>>1100680
>линейная регрессия
Кто ещё переоценивает. Перенапряжение и панику вызывают уже численные методы, а статистика - это вообще ебучий рокет сайенс.
мимостудент
Аноним 01/12/17 Птн 13:06:49  1100924
>>1100873
>Перенапряжение и панику вызывают уже численные методы
Потому что их хуево преподают. Помню нам сразу хуярили по лицу формулами какого-нибудь метода зейделя и кривым куском кода на паскале с четырьмя вложенными циклами.
Если нормально объяснять то и методы, и статистика - несложная занимательная прогулка, но увы, это не про шараги даже топовые
Аноним 01/12/17 Птн 14:56:09  1100992
>>1100647
Кек. Я как раз сейчас прохожу курс по машинке в ШАДе.
Каждый клоун с ФКН проходит майнор по машинке - а с этого года в вышке вводится data-culture, в результате чего через пару лет каждый обоссаный гуманитарий будет знать машобчик хотя бы на энтри левеле.
В то же время хуи из яндекса утверждают, что хайп на машобчик сдуется года через четыре - текущие алгоритмы уже выжимают из данных максимум (оставшиеся 1-2% точности в индустрии никого не ебут). В теме останутся только высокоуровневые теоретики и ограниченное число макак, которые будут крутить ручки гиперпараметров.
Вообще, эти ваши нейроночки - ГРАФЫ ВЫЧИСЛЕНИЙ - дно полное. Банальные композиции линейных и нелинейных функций. С ИИ эта хуйня и рядом не валялась.
Аноним 01/12/17 Птн 15:38:32  1101020
>>1100992
>Вообще, эти ваши нейроночки - ГРАФЫ ВЫЧИСЛЕНИЙ - дно полное. Банальные композиции линейных и нелинейных функций. С ИИ эта хуйня и рядом не валялась.
Ну ещё бы, маняматику гамалогий и тапалогий не завезли, значит ненужно.
Аноним 01/12/17 Птн 16:11:45  1101034
>>1100924
Хуй знает, я привык к почти полному самообразованию - не понимаю, зачем преподавать числаки, которые можно самому разобрать на раз, это ж не матан с алгеброй.
Аноним 01/12/17 Птн 16:20:47  1101043
>>1101034
Ну вот когда я сам попробовал освоить нормально разные вещи, которые преподавали в шараге и от которых у меня было отвращение, понял что самому проще и лучше освоить, матан и алгебру в том числе. Универ по сути только саботировал мое обучение.
Аноним 01/12/17 Птн 16:39:24  1101059
>>1100992
>оставшиеся 1-2% точности в индустрии никого не ебут
>робомобиль давит одного пешехода из сотни
Аноним 01/12/17 Птн 17:10:56  1101073
>>1084895
смотри на канале spacex презентацию о симуляции процессов в двигле, используют адаптирующуюся сетку, возможно, в этом направлении стоит копнуть
Аноним 01/12/17 Птн 17:13:30  1101076
Screenshot from[...].png (69Кб, 870x208)
Господа, при обучении перцептрона многократный проход по данным - норм? У меня 540тыс цифр разной степени замусоренности, лучше подгонять за несколько проходов по ним или пытаться в один проход?

перцептрон сосёт, попробую реализовать пикрелейтед
Аноним 01/12/17 Птн 17:19:00  1101080
>>1101059
Все еще лучше пидорахи за рулем.
Аноним 01/12/17 Птн 19:36:03  1101145
>>1100992
>ограниченное число макак, которые будут крутить ручки гиперпараметров
Ими уже крутят нейроночки.
Аноним 01/12/17 Птн 22:40:19  1101272
>>1101059
Робомобили ездят на длинных лесенках ифов, мария, попуститесь.
Аноним 01/12/17 Птн 22:42:40  1101275
>>1101020
Двачую адекватного анона. Это долбоеб с шизтеха, биоробот с туннельным зрением, смейтесь над ним.
Аноним 01/12/17 Птн 22:52:16  1101282
>>1100992
Ну и что такое ИИ?
Аноним 01/12/17 Птн 23:48:27  1101315
>>1101282
Искуственный Интеллект
Аноним 02/12/17 Суб 01:37:30  1101363
>>1101315
Я не про это, а про то, чем упомянутый ИИ отличается от МЛ и набора ифов.
Аноним 02/12/17 Суб 01:51:46  1101375
>>1101363
Никто не знает. Вполне возможно, что через пару лет текущий подход выйдет на плато и не сможет предложить ничего нового и все маняфантазии про замену юристов и погромистов на роботов разобьются о твёрдые скалы "Хуй его знает" на следующие 50 лет.
Аноним 02/12/17 Суб 01:57:44  1101379
>>1100689
>области всего несколько лет считай
Вкатывальщик не палится.
Аноним 02/12/17 Суб 02:52:29  1101393
>>1101363
>Я не про это, а про то, чем упомянутый ИИ отличается от МЛ и набора ифов.
Тот дурень видимо имел ввиду "сильный ИИ".

>>1101375
>Никто не знает.
Ну охуеть теперь.

>>1100992
>курс по машинке в ШАДе.
Впрочем ладно, для тебя и это уже много.
Аноним 02/12/17 Суб 15:34:02  1101550
>>1101363
Ничем, искусственный интеллект, по определению, это то, что схоже с мыслительным аппаратом человека, а мозг человека это и есть нейронка и набор ифов.
Аноним 02/12/17 Суб 16:38:10  1101576
>>1101550
Ну вот, а что тогда подразумевал предыдущий ответчик про сильный ИИ >>1101393 ?
Аноним 02/12/17 Суб 16:52:55  1101594
>>1101576
>Ну вот, а что тогда подразумевал предыдущий ответчик про сильный ИИ >>1101393 ?
Сильный ИИ - универсальный ИИ, способный учится чему угодно как угодно. Другими словами, приближенный к способностям человека.

Интеллект - способность решать нетривиальные задачи(нелинейной оптимизации).

Вот, что я подразумевал.
Аноним 02/12/17 Суб 16:56:55  1101598
>>1101594
Но его же пока не существует. Зачем сравнивать рабочие методы с мечтами?
Аноним 02/12/17 Суб 17:26:17  1101613
Чем лучше классифицировать картинки?
Аноним 02/12/17 Суб 17:33:51  1101624
>>1101550
Мозг человека не такая нейронка, которая в tensor flow. Кароче это всё маняпредположения, по факту никто не знает как мозг работает. Может ещё скажешь, что машина Тюринга ничем не отличается от мозга человека патамушта наборв ифов?

>>1101598
Ну как видишь тут фантазёров хватает, которые путают ИИ уровня человека и машобчик.
Аноним 02/12/17 Суб 17:38:47  1101630
>>1101613
Господи, в рот я ебал все эти библиотеки, хуй что установишь, вечно какая-то ебала с ними, нахуй так жить вообще. Ебаный тензорфлоу, ебаный теано, ебаное все.
Аноним 02/12/17 Суб 17:40:24  1101632
>>1101598
>Но его же пока не существует. Зачем сравнивать рабочие методы с мечтами?
Я не понимаю того, что ты говоришь, перефразируй.

Аноним 02/12/17 Суб 17:56:36  1101641
>>1101630
Первые раза 3-5 это боль, зато когда немного поебешься и привыкнеш, сможешь любую хуйню ставить, хоть на расте с мокрописьками и без ос.
Аноним 02/12/17 Суб 21:08:25  1101753
>>1101624
>Мозг человека не такая нейронка
Так и "нейронные сети" это не одна конкретная сеть, а набор разных подходов.
>по факту никто не знает как мозг работает
Мы знаем то что мозг состоит из клеток, сообщающихся сигналами, это достаточно для абстрагирования. То как именно устроены и работают отдельные его части мы конечно же не всегда знаем, но мы и не можем заранее ответить на вопрос как именно будет обучаться и работать от балды нарисованная нейронка.
Аноним 02/12/17 Суб 21:15:37  1101761
>>1101753
>это достаточно для абстрагирования
нет.
Аноним 02/12/17 Суб 23:53:36  1101865
>>1101624
>Мозг человека не такая нейронка, которая в tensor flow. Кароче это всё маняпредположения, по факту никто не знает как мозг работает. Может ещё скажешь, что машина Тюринга ничем не отличается от мозга человека патамушта наборв ифов?
Нейронные сети в IT имеют мало отношение к мозгу человека. Это всеобщее знание не требующее лишнего упоминания.
Аноним 03/12/17 Вск 00:19:25  1101872
>>1101753
>Мы знаем то что мозг состоит из клеток, сообщающихся сигналами, это достаточно для абстрагирования
А вот и нихуя.
Аноним 03/12/17 Вск 08:17:24  1101949
>>1101865
Схуяли? Мозг - большая нейронка.
Аноним 03/12/17 Вск 08:32:01  1101954
Процессор пекарни - это много транзисторов. Мы знаем, как работают транзисторы. Но процессоры слишком сложные на уровне транзисторов, чтобы в них разобраться. Поэтому схему процессоров человек генерирует с помощью САПР.
Мозг - это много нейронов. Мы знаем, как работают нейроны, и уже можем составлять из них простые схемы.Но до сложности мозга еще очень далеко, а САПР нет, как и нет понимания архитектуры схемы мозга.
Аноним 03/12/17 Вск 11:37:13  1101987
Этим троллям, видимо, мало еженедельных тупых тредов об аи в б, они и сюда перекатились.

>>1101954
Любому дауну это понятно. Тебя траллируют же.
Аноним 03/12/17 Вск 12:08:31  1102001
>>1101987
>Любому дауну это понятно
Савельеву непонятно
Аноним 03/12/17 Вск 15:55:40  1102092
>>1102001
Ты про его эфир на радио про ИИ? Мне показалось, что он набросил, как обычно. Да и отчасти правильно сказал, что долбоёбы в сми подняли дикий ажиотаж вокруг сраных алгоритмов, создав иллюзию ебического прорыва в ноуке для дебилов.
Аноним 03/12/17 Вск 15:56:17  1102093
что за хуйня посоны?
решил я написать приложение на php с использованием reinforced algorythm.
теории в инете дохуя, но мне нужен пример рабочего кода.
Гуглю. И что же? Сплошные примеры на питоне с использованием готовых либ типа нампи и тензоверфлоу!
И нахуй так жить? Я хочу писать на пхп или любом другом языке, почему меня принуждают к питону и готовым либам??
Аноним 03/12/17 Вск 16:21:23  1102104
>>1102093
>Я хочу писать на пхп или любом другом языке
<b>Fatal error: Allowed memory size of 268435456 bytes exhausted (tried to allocate 43 bytes) in /var/www/user/data/www/site.ru/GameEngine/Database/db_MYSQL.php on line 2986</b>
Аноним 03/12/17 Вск 16:58:09  1102151
54121-sweet-the[...].jpg (100Кб, 720x684)
>>1101949
>Схуяли?
Стоит ли вообще с тобой разговаривать?

>Мозг - большая нейронка.
Мозг из живых клеток состоит.
Функционирование этих клеток в отдельности, и в целом, не имеет ничего общего с нейронными сетями в IT. Количество этих самых нейронов играет тут последнюю роль.
Аноним 03/12/17 Вск 17:00:27  1102156
54119-sweet-the[...].jpg (128Кб, 719x684)
>>1101954
>Мы знаем, как работают нейроны
Нет.

> и уже можем составлять из них простые схемы
В смысле из живых?

>>1101987
>Этим троллям, видимо
По мне так жирный тролль тут ты.
Аноним 03/12/17 Вск 17:31:44  1102203
>>1102151
Ты же биолог какой-нибудь, да? Что ты вообще делаешь в /pr/?
Мы знаем, какую функцию выполняет нейрон, этого достаточно. Тысячи раз тут приводили аналогию: никто не рассчитывает аэродинамику всех чешуек пера, и не воспроизводит их, чтобы сделать самолет.
Аноним 03/12/17 Вск 18:02:33  1102224
>>1101761
>>1101872
Кто-то нам запретит?
Аноним 03/12/17 Вск 18:04:30  1102225
>>1102104
ну ахуеть вообщем. и что мне теперь уэб на джанге писать7
Аноним 03/12/17 Вск 18:39:23  1102260
54120-sweet-the[...].jpg (128Кб, 720x684)
>>1102203
>Мы знаем, какую функцию выполняет нейрон, этого достаточно.
Вы? И какую-же?

> этого достаточно. Тысячи раз тут приводили аналогию: никто не рассчитывает аэродинамику всех чешуек пера, и не воспроизводит их, чтобы сделать самолет.
Работа живого нейрона отличается кардинальный от сумматора с нелинейной функцией(искусственного нейрона).

Ты бредишь, фактически ты утверждаешь.
>Мы знаем, какую функцию выполняет поезд(перевозит грузы), этого достаточно чтобы построить континентальную систему грузоперевозок на лошадиных упряжках по бездорожью.
Нет, подобного знания принципиально недостаточно.
Аноним 03/12/17 Вск 19:20:17  1102303
Решил вкатиться в нейронки. Сейчас читаю introduction to computation and programming using python. Стоит ли сразу начинать с книги в шапке или стоит дочитать ту, которую я сейчас читаю? И ещё подскажите, какие разделы математики стоит подтянуть, чтобы потом не охуеваеть?
Аноним 03/12/17 Вск 19:48:48  1102343
>>1102303
Если ты не умеешь кодить, то сначала научись кодить, шапка этому не научит. Из матеметики нужен линал, матан, базовый матстат.
Аноним 03/12/17 Вск 19:59:52  1102353
>>1102343
А если умею кодить, но не питоне(жс)?
Аноним 03/12/17 Вск 20:02:15  1102355
>>1102353
Если кодинг на питоне представляет для тебя какую-то проблему, то твой кодерский уровень недостаточен.
Аноним 03/12/17 Вск 20:23:06  1102378
>>1102343
>линал
анал
Аноним 03/12/17 Вск 20:42:03  1102395
>>1102378
Ангем
Аноним 03/12/17 Вск 20:42:38  1102396
https://kunuk.wordpress.com/2010/09/24/q-learning/

попытался вот отсюда переписать алгоритм с жавы на пхп, но соснул с массивами.
чет не вдубляю как их в пхп использовать.

мой код:
https://ideone.com/XedDk5
Аноним 03/12/17 Вск 20:50:02  1102402
Хочу серьезно вкатиться в машоб. На данный момент заканчиваю знакомство с питоном. Достаточно ли будет книги, указанной в шапке?
Аноним 03/12/17 Вск 20:53:55  1102405
>>1102402
Нет и если ты думаешь, что сможешь освоить машоб по одной книге, то он не для тебя.
Аноним 03/12/17 Вск 20:59:06  1102408
>>1102402
Кто хочет серьезно вкатваться на дваче такой хуйни не задает. Просто забей, машоб для полубогов, обычным рандомхуям можно даже не пытаться.
Аноним 03/12/17 Вск 21:07:58  1102412
>>1102260
мне на мозг наплевать, так как при таком количестве нейронов даже обычный персептрон забрутфорсит и даже аллаха, но на вики написано, что relu выполняет функцию нейрончиков человеческих
Аноним 03/12/17 Вск 21:12:18  1102415
>>1102402
Эта книга это начало пути. Как букварь для начинающего писателя.
Аноним 03/12/17 Вск 21:12:36  1102416
>>1102412
ну, и повторять мозг вообще не нужно, что как бе естественно
Аноним 03/12/17 Вск 21:16:51  1102417
>>1102396
Не майся херней, нейроночки требуют больших массивов, PHP их не потянет.
Аноним 03/12/17 Вск 21:24:37  1102422
>>1102405
Нет, я так не думаю.

>>1102408
А где задавать?

>>1102415
Перефразирую вопрос. Достаточно ли будет для позиции джуна, написанного в той книге?
Аноним 03/12/17 Вск 22:29:56  1102445
>>1102422
>что relu выполняет функцию нейрончиков человеческих
Полная хуйня.
Аноним 03/12/17 Вск 23:14:34  1102473
>>1102417
т.е. мне накатывать нампи и тензорфлоу и писать уэб с нейронками на джанге?
Аноним 03/12/17 Вск 23:27:23  1102486
>>1102473
Ты ещё не научился писать фронтенд и бэкенд на разных языках? Не рано тебе в машобчик?
Аноним 03/12/17 Вск 23:28:05  1102487
>>1102260
>фактически ты утверждаешь
Фактически утверждается что сложность работы мозга может быть воссоздана из таких же элементарных нейронов (ну или "нейронов" если это задевает твои религиозные чувства), при этом конкретные технические детали и различия (как, например, то что человеческие нейроны из мяса, а не из абстракций в коде) большой роли не играют.
Аноним 03/12/17 Вск 23:35:10  1102495
>>1102487
По-моему, ты свято веришь, что нынешняя теория нейронок верна, что уже само по себе не есть хорошо.
Аноним 03/12/17 Вск 23:37:01  1102496
>>1102487
> большой роли не играют
Гуманитарные фантазии.
Аноним 03/12/17 Вск 23:48:13  1102501
>>1102486
бэкенд только на похапе пока что писал.

просто не знаю, как-то передергивает от джанги. сразу всплывают перед глазами голодные студенты из бауманки.
Аноним 03/12/17 Вск 23:51:09  1102504
>>1102422
>Достаточно ли будет для позиции джуна, написанного в той книге?
Теории там достаточно. Изложено в принципе все, кроме самых-самых последних достижений. Кроме этого нужно иметь хотя бы минимальную практику (тоже см. шапку), ну и если нет иного базиса (профильное образование, статьи), то свой проект крайне желателен (фактически необходим, и хороший).
Аноним 04/12/17 Пнд 00:12:04  1102512
>>1082641 (OP)
Посмотрел штук 20 вакансий на indeed. Почти все требуют phD или master degree. Ну и как тут быть?
Аноним 04/12/17 Пнд 00:15:12  1102514
>>1102512
Дрочить на обочине пока умные дядьки не спустят нам, черни, либы для тупых с конкретными конфигурациями сетей.
Аноним 04/12/17 Пнд 00:18:06  1102515
>>1102512
Получать мастера и пхд.
Аноним 04/12/17 Пнд 00:28:55  1102518
>>1102515
Рашкинские ноунейм мастера подойдут? Я за два года гораздо больше сам освою чем буду лизать анусы докторам наук и дрочить устаревшее говно из 70х
Аноним 04/12/17 Пнд 00:29:17  1102519
>>1102518
>чем если
фикс
Аноним 04/12/17 Пнд 00:33:07  1102521
>>1102518
Вряд ли, есть шанс, что топовые кафедры в топовых вузиках уважают, типа математиков из вышечки, а вот компутер саентунов могут и в хуй не ставить, если эти кафедры никак себя не проявили.
Аноним 04/12/17 Пнд 00:35:40  1102522
>>1102518
Формально подойдут, рашкинские все ноунейм. Даже МГУ никто не знает.
ПхД я настоятельно рекомендую делать за границей. Рашкинский несовместим формально, плюс все знают что >рф 2к17 >наука.
Аноним 04/12/17 Пнд 00:55:12  1102529
>>1102521
В рашке вообще разве есть кафедры камплюхтер ссаенса? Даже само словосочетание никак на канцелярский язык не переводится.
Аноним 04/12/17 Пнд 00:57:07  1102530
>>1102529
Компуктер сайенс это не математика и не сайенс. И даже от компуктеров далеко.
Аноним 04/12/17 Пнд 01:15:50  1102539
>>1102529
https://cs.msu.ru/departments
Ну вот такая шняга есть.
Аноним 04/12/17 Пнд 01:24:10  1102547
>>1102487
>из таких же элементарных нейронов
>элементарных нейронов
>элементарных
Биологические нейроны очень не элементарные.

>>1102495
>По-моему, ты свято веришь, что нынешняя теория нейронок верна
Ну, нейробиология и биохимия продвинулись довольно далеко.
До раскрытия всех тайн еще конечно далековато, но кое какие представления имеются.

Опять таки, нелинейный элемент с сумматором не имеет никакого отношения к живым нейронам.

От живых нейронов в компьютерных нейронных сетях только одно название.
Аноним 04/12/17 Пнд 01:54:46  1102563
>>1102539
Третий поток можно назвать CS, но на факультете в целом 90% программы это математика. От кафедр там пара курсов и спецсем, а в дипломе может быть большая вариация тем. Может быть упор на программирование, или на математику, на любой кафедре.
Аноним 04/12/17 Пнд 15:38:50  1102792
>>1102495
Теории не могут быть верными или неверными
>>1102496
Дед из совкоНИИ порвался
>>1102547
>Опять таки, нелинейный элемент с сумматором не имеет никакого отношения к живым нейронам.
Ты всё повторяешь и повторяешь свой тезис. Подтверди уже чем-нибудь.
Аноним 04/12/17 Пнд 16:01:02  1102799
54118-sweet-the[...].jpg (136Кб, 720x684)
>>1102792
>Ты всё повторяешь и повторяешь свой тезис. Подтверди уже чем-нибудь.
Предлагаешь мне, тебя убеждать?
Приведу ссылки на описание работы нейронов, сразу после того, как ты раскроешь основания для собственных суждений.
На какие исследования ты опираешься? Выше говорил о функции нейронов - какова их функция?
Аноним 04/12/17 Пнд 16:17:32  1102807
>>1102792
>Теории не могут быть верными или неверными
Нихуя себе заявочки, я посмотрю ты спец. по науке. Т.е. ты не можешь сказать верна ли частная теория относительности?
>Ты всё повторяешь и повторяешь свой тезис. Подтверди уже чем-нибудь.
Подтверди уже свой тезис, что relu это тоже самое, что нейрон в мозге человека.
Аноним 04/12/17 Пнд 16:42:07  1102816
>>1102799
>Приведу ссылки на описание работы нейронов
Да никому это не нужно - понимать его работу, кроме нейробиологов.
Нейрон передает сигнал, это его основная функция. Мы можем замерить сигнал на входе и выходе, построить мат. модель и реализовать в кремнии, этого достаточно. Совершенно ни к чему ковыряться в электрохимии нейрона, ведь мы не делаем компьютеры из мяса.
Аноним 04/12/17 Пнд 16:49:08  1102818
>>1102816
>Нейрон передает сигнал, это его основная функция.
Он его ОБРАБАТЫВАЕТ, это его основная функция.

>Мы можем замерить сигнал на входе и выходе
Можем. Правда, не всегда, и не везде, и не полностью.

>построить мат. модель
С этим пока туго.

>и реализовать в кремнии
Этого пока нет даже для самых простых моделей.

>Совершенно ни к чему ковыряться в электрохимии нейрона
Ты невежда.
Аноним 04/12/17 Пнд 17:03:19  1102824
Buypageimage100[...].jpg (110Кб, 1000x474)
>>1102818
Ты выдаешь лишь оценочные суждения, и ноль аргументов, поэтому считаю тебя троллем и прекращаю разговор.
Аноним 04/12/17 Пнд 17:14:16  1102833
sibo.jpg (53Кб, 326x500)
>>1102824
Это уже воинствующий обскурантизм.
Я кажется понял пафос твоего бреда, это любимая тема советских шизофренических учоных - мол все можно на свете циферками посчитать.
Аноним 04/12/17 Пнд 18:14:06  1102860
>>1102518
Нахуя рашкинские, если изи можно получить вышку в той же сша?
Аноним 04/12/17 Пнд 20:14:59  1102964
>>1102816
>построить мат. модель
Модели во всех современных нейронах очень далеки от модели нейрона в мозгах.
Аноним 04/12/17 Пнд 20:15:21  1102965
>>1102860
Дистанционно?
Аноним 04/12/17 Пнд 20:23:27  1102973
>>1102860
Не, если ты дочь Пескова, то рашкинские не имеют никакого смысла, естественно.
Аноним 04/12/17 Пнд 21:16:29  1103026
>>1102964
Ну это понятно, нейрон у математиков - не нейрон, ведь настоящий живой нейрон ДУМОЕТ.
Аноним 04/12/17 Пнд 21:20:21  1103031
>>1102799
>Предлагаешь мне, тебя убеждать?
Предлагаю сказать хоть что-нибудь дельное кроме вынепровыясказал.
Аноним 04/12/17 Пнд 21:22:05  1103034
Увидел вакансию, где пилят на аи софт для медицины. Моя тема, сам вынашиваю идею имлпемента аи алгоритмов для постановки диагнозов.
Сам я фронтендер, но в свободное время читаю книжки по аи, вот numpy накатил - буду разбираться.
Там требуется фронтендер, но я немного не подхожу. т.к. не знаю Реакта, визуальных 3D либ для жс и опыта на год меньше. Как думаете откликаться?
Аноним 04/12/17 Пнд 21:27:18  1103040
>>1103034
Странный вопрос, я-то откуда знаю? Если там в требованиях веб, то им ты там и будешь заниматься, а не нейроночками. Если ты хочешь заниматься нейроночками, то подавайся на соответствующую вакансию. Впрочем, ничто не мешает тебе откликнуться и предложить себя в качестве нейронщика, а не фронтэндера.
Аноним 04/12/17 Пнд 21:33:07  1103048
>>1103034
>вынашиваю идею имлпемента аи алгоритмов для постановки диагнозов
Открыл Америку.
>numpy накатил - буду разбираться
Лол, что там разбираться? Поставил задачу - нагуглил методы, а в процессе обучаешься. Это же обычная либа для алгебры.
Какой-то ты подозрительно зелёный
Аноним 04/12/17 Пнд 21:44:50  1103071
>>1103034
>Увидел вакансию в Boston Dynamics
>Моя тема, сам вынашиваю идею имплемента Робокопа
Аноним 04/12/17 Пнд 21:47:43  1103078
>>1103034
>numpy накатил
Нихуя себе, аж нумпай накатил. Ну все, щас компетенция поползет вверх как на стероидах.
Аноним 04/12/17 Пнд 21:55:31  1103090
b1q0p0.jpg (12Кб, 246x264)
>>1103031
>Предлагаю сказать хоть что-нибудь дельное кроме вынепровыясказал.
И какой мне в этом прок?
Ладно бы если бы ты, хотел разобраться в вопросе, так ты ничего не знаешь, и знать не желаешь, при этом, ведешь себя крайне вызывающе, агрессивно.
При этом, требуешь принудительного диалога, мол я обязан тебя убеждать.
На лицо сумасшествие, а безумие заразно.

Попробую сформулировать свою мысль максимально просто. То, что ты считаешь для себя интеллектуальным подвигом, для меня немыслимая деградация.
Посему, не считаю диалог возможным в принципе.

>>1103026
Существует множество различных функциональных моделей нейронов.
Та, что массво используется в comp science, была актуальна лет 100 назад, и быстро списсана со счетов.

Чуть более адекватная спайк модель, далека от совершенства, и самое главное, не реализуема в железе.

>живой нейрон ДУМОЕТ
В живых нейронах обнаружены органы набитые тысячами органических кьюбитов. Так что нейроны "думоют" на грани возможностей мат реальности, и по выч мощности один нейрон превосходит всё компьютеры когда либо созданные людьми.

Не говоря уже о таких незначительных аспектах как близко-клеточная коммуникация(шепот), использовать которую могут кстати не только нейроны.

Не говоря уже о таких мелочах, как способность образовывать какие угодно связи с какими угодно нейронами.
Созданные людьми вычислительные машины неспособны на подобны физически.
И даже формирование связей между слоями требует рост выч мощностей экспоненциально кол нейронов.

Чтобы обрабатывать ЧБ 8битное изображение 1920x1080пикселей, нужна матрица весов размером 2073600*кол нейронов в слое. байт.
для 1000 нейронов это 2073,6GB. Если добавить цвета и разрешения, то любой суперкомпьютер сдувается. А это, один единственный кадр изображения и один единственный слой нейронов.
Аноним 04/12/17 Пнд 21:59:26  1103094
>>1102529
https://www.hse.ru/ma/datasci/
https://www.hse.ru/ma/adbm/announcements/211379414.html
https://www.hse.ru/ma/sltheory/
Аноним 04/12/17 Пнд 21:59:48  1103095
>>1103048>>1103071>>1103078
Накинулись на новичка, как гиены, лол. Пусть работает человек - у него благая, хорошая задумка. Область эта нужная, востребованная в научных и приближенных к ним кругах. Это уж гораздо лучше, чем мечтать зделоть робата для торговли биткойнтами на нейтронках.
Аноним 04/12/17 Пнд 22:01:36  1103099
>>1103094
Дата саенс и кампутир саенс это совершенно разные вещи, почти не пересекающиеся.
Аноним 04/12/17 Пнд 22:02:23  1103100
>>1102504
Спасибо! А что подразумевается под собственным хорошим проектом?
Аноним 04/12/17 Пнд 22:18:01  1103125
>>1103095
Ещё один?
>мечтать зделоть робата для торговли биткойнтами на нейтронках
Нахуй ёрничаешь?
>благая, хорошая задумка
>нужная, востребованная в научных и приближенных к ним кругах
Да не особо. В России этим 3,5 калеки занимаются, остальные хуй взлетят, раз к ним такие вкатывальщики хотят попасть простите, если это очередной гений с двачей, не признал.
Аноним 04/12/17 Пнд 22:45:10  1103151
>>1103099
Сорян, пропиздоглазил. Тогда http://mit.spbau.ru/department#cs
Аноним 04/12/17 Пнд 22:49:04  1103155
>>1103151
Да, это оно самое. Кекнул с "ведущий научный сотрудник ПОМИ РАН".
Аноним 04/12/17 Пнд 22:58:32  1103169
>>1103125
В России по науке вообще почти ничего нет, а в других странах биомедицинские исследования это топчик, где работает оргомное количество людей. И сейчас там почти везде требуется машоб, все пытаются приспособить нейроночки к делу. Вычислять диагнозы на нампи это, конечно, наивный взгляд нуба, но тут главное стремление. Пару лет покопается в этом, да под хорошим руководством, и будет вполне себе годные идеи генерировать.
Аноним 05/12/17 Втр 00:43:20  1103227
>>1103095
Сдуется через 2 недели - месяц. Можешь скринить.
Аноним 05/12/17 Втр 01:21:27  1103242
>>1102965
Да. Уж 5к бачей за бакалавриат и 20к рублей на экзамен по инглишу у тебя найдется.
Аноним 05/12/17 Втр 01:55:15  1103250
>>1103242
Не понял, т.е. мне еще сначала надо их бакалавриат получить и только потом на мастес? Да ну нахуй тогда.
Аноним 05/12/17 Втр 10:50:57  1103342
>>1103090
>органы набитые тысячами органических кьюбитов
Ты это, давай, лечись там, не запускай
Аноним 05/12/17 Втр 14:22:53  1103408
>>1103090
> икакоймневэтомпрокметатьбисерпередсвиньямимневасжаль
Мань, если хочешь сливаться, делай это без подобной тошнотноворной словесной эквилибристики, достойной жжшной тп образца 2008 года. Тут не настолько параша, подобного не ценят.
Аноним 05/12/17 Втр 16:55:46  1103501
>>1103408
>многабукав
>Мань
>Тут не настолько параша
Аноним 05/12/17 Втр 17:00:31  1103508
>>1103342
>Ты это, давай, лечись там, не запускай
http://www.sciencedirect.com/science/article/pii/S0003491615003243

Безмозглый, злобный, малолетний, придурок.
Аноним 05/12/17 Втр 17:17:57  1103515
>>1103508
Как там скочать

Мимо
Аноним 05/12/17 Втр 17:56:52  1103536
phisher.jpg (153Кб, 825x487)
>>1103508
О, наконец-то удалось добиться от тебя хотя бы ссылки. Жаль только, что ты притащил статью объебоса и поехавшего научного фрика, над которым потешаются коллеги.
Аноним 05/12/17 Втр 18:08:27  1103543
>>1103536
Лол, я когда начал читать, казалось сейчас пойдет переделанная паста про страуструпа и лямбду.
Аноним 05/12/17 Втр 18:11:08  1103545
>>1103543
Что за паста? всё лучше чем читать фантазии байтослесарей про ИИ на relu
Аноним 05/12/17 Втр 19:09:30  1103562
>>1103545
Давно читал, сейчас уже не вспомню. Там хейт плюсов и байтоебов со стороны функционалоилитки.
Аноним 05/12/17 Втр 19:38:24  1103575
>>1103536
Кстати то, как паста на твоем скрине сделала match(возможно и неправильно) в моем мозге с той пастой про летающие лямбды навело на скорее всего очевидную для спецов мысль что именно моделями распознавания наша память и хранит "воспоминания".
Т.е. когда запоминается лицо твоей еот (если говорить об этом в категориях компьютерных нейроночек) по сути какая-то часть мозговой сеточки тренируется распознавать ее лицо на освное каких-то входных данных(визуальная, твое эмоциональное состояние) связывая ее с какими-то выходными триггерами(мысленным образом "красивая", мысленным образом "ее уже ероха ебет" или активацией стояка).
Т.е. в мозгах храниться не конкретный набор как-то закодированных чувств, образов, а сам распознаватель(то, что в машобе называют модель). Это хорошо объясняет почему бывает очень трудно что-то вспомнить, например какое-то слово, но если тебе будут перечислять слова и какое-то из них то самое, ты моментально его распознаешь или то, что воспоминания визуальных образов очень недетализированы, т.е. если попытаться нарисовать то, что часто видишь и хорошо знаешь(сычевальня, например) получиться очень схематичная и убогая хрень с упущением кучи деталей)
Про ассоциативную память на нейронных сетях я слышал и раньше, но вот такой инсайт как конкретно это работает нахлынул только сейчас.
Аноним 05/12/17 Втр 20:01:02  1103587
>>1103575
>не конкретный набор как-то закодированных чувств, образов, а сам распознаватель
Это вытекает из архитектуры вычислений, когда один нейрон уже сам по себе распознаватель
Аноним 05/12/17 Втр 21:58:21  1103646
>>1103090
>Чтобы обрабатывать ЧБ 8битное изображение >1920x1080пикселей, нужна матрица весов >размером 2073600*кол нейронов в слое. байт.
>для 1000 нейронов это 2073,6GB. Если >добавить цвета и разрешения, то любой >суперкомпьютер сдувается. А это, один >единственный кадр изображения и один >единственный слой нейронов.
у тебя неправильная математика
Аноним 06/12/17 Срд 00:46:18  1103702
b1q0p02314.jpg.png (77Кб, 300x300)
>>1103646
>у тебя неправильная математика
Покажи правильную.

Ну то есть, допустим если мы кластеризуем, одно единственное изображение, то по пикселям можно прогонять, тогда у нас 2 координаты и интенсивность, но хрен редьки не слаще, это обычный метод наименьших квадратов получается, почти, и толку от такого счастья, мы теперь упираемся в классические последовательные вычисления. И теперь у нас экспоненциальный рост требований к вычислительной мощности, а не памяти.
Аноним 06/12/17 Срд 07:42:03  1103773
Screenshot from[...].png (347Кб, 2574x1125)
Олдскульные шахматные программы вроде stockfish можно сдавать в утиль: https://arxiv.org/abs/1712.01815
Аноним 06/12/17 Срд 21:04:31  1104215
Что скажете о темпоральных базах данных, голограммах и метаграфах?
Аноним 06/12/17 Срд 21:33:31  1104236
>>1104215
Ты не туда зашел.
Аноним 06/12/17 Срд 22:40:39  1104273
3-1.png (691Кб, 598x598)
13.png (118Кб, 299x299)
15.png (1395Кб, 1024x1024)
21.jpg (8Кб, 451x300)
>>1082641 (OP)
Делаем поссонами лабы по машобчику, сейчас пилим детектор огня...

Вот ложняки и не очень..

А ты чем занят, анон?
Аноним 06/12/17 Срд 23:10:17  1104288
>>1104273
Лучше бы делали не лабу, а либу. Убийцу тензорплова
Аноним 07/12/17 Чтв 02:10:53  1104358
сап. Хочу вкатиться в анализ данных и прочее. Насколько понимаю, одни из основных инструментов - Python и R. Вопрос - юзать анаконду под виндой нормально или сорт оф и над на линух уезжать?
сори за даунские вопросы, но тем не менее
Аноним 07/12/17 Чтв 02:35:30  1104364
>>1104358
Большая часть фреймворков и кода под них может работать на винде. Но установить их трудно и заставить работать всегда проблема. Линукс это основная платформа.
Аноним 07/12/17 Чтв 07:13:18  1104390
32.jpg (66Кб, 987x702)
34.jpg (71Кб, 1000x541)
35.jpg (25Кб, 480x384)
36.jpg (6Кб, 257x196)
>>1104288
Вот только не надо взрывать мне жопу!

Писать либы - удел настоящих датасаентистов, а не начинающих быдлокодеров
Аноним 07/12/17 Чтв 07:39:10  1104393
23.jpg (82Кб, 800x450)
>>1082641 (OP)
Кто знает, как в keras обмазать обычную сверточную сеть временем через TimeDistributed?

А то я хотел приделать низ от CNN к классификатору последовательностей фич (3D-сверточный SVC), но ниасилил ...

Примеры с гитхаба, стековерфлоу, докуменации не помогли...
Аноним 07/12/17 Чтв 07:49:34  1104394
>>1104393
И да, модель ни разу не Sequential!
Аноним 07/12/17 Чтв 08:26:32  1104400
>>1104393
Керас не может в кастомные архитектуры. Делай на голом тф, а лучше на питорче. В любом случас совершенно непонятно, что ты пытаешься сделать, и для получения какой-то конкретной помощи тебе придется выложить свой код.
Аноним 07/12/17 Чтв 12:34:35  1104477
>>1104400
Пока сделал на голом питоне:
1. Фичи кадров считаются в керасе
2. Запихиваются в примитивный ФИФО
3. Векторы из ФИФО конкатенируются по времени для каждого столбца выходного блока подаются на LinearSVC из sklearn.
4. ??????
5. PROFIT!
Аноним 07/12/17 Чтв 12:44:34  1104480
>>1104358
Юзаю анаконду из докера из под линуха, мне кажется это самый оптимальный вариант. Систему не засоряешь этой анакондой и работает все быстро
Аноним 07/12/17 Чтв 12:48:44  1104482
>>1104358
Юзаю анаконду из-под восьмерки. Все нормально. Установка самая обычная(далее->далее->далее->установить).
R тоже работает без проблем.
Аноним 07/12/17 Чтв 14:08:02  1104518
>>1104477
В общем, FAIL, а не профит, детектор дает ложняки на относительно неподвижное изображение огня.

т.е. если зажигалка перед камерой двигается - оно выдает отрицательный результат, если стоит на месте - положительный; если распечатать фото огня и не шевелить его - дает "положительный" результат.

Пипец, день коту под хвост.
Аноним 07/12/17 Чтв 14:46:21  1104527
>>1104518
Керас этот вообще мразь писала, от версии к версии API меняет, я сегодня день убил на исправления.
Аноним 07/12/17 Чтв 14:54:36  1104530
>>1102816
>Мы можем замерить сигнал на входе и выходе, построить мат. модель и реализовать в кремнии, этого достаточно. Совершенно ни к чему ковыряться в электрохимии нейрона, ведь мы не делаем компьютеры из мяса.
Совершенно верно, это называется идентификация системы по типу черного ящика, аппроксимация функциональной зависимости выхода от входов. В границах допустимых значений выхода и входов оно будет работать как биологический нейрон. Ты >>1102818 этого не понимаешь. Обработка сигнала нейронов - это в точности функция(и), аппроксимируемая(ые) идентификацией этой системы. Однако, зачем это надо, если задачу машинного обучения можно поставить без отсылок к нейрону, и показать оптимальные методы решения такой задачи? Чем и занимается теория статистического обучения Вапника.
Аноним 07/12/17 Чтв 15:04:55  1104534
>>1093861
>никуда вы не уйдете от теории статистического обучения Вапника, которая объясняет работу всех вообще возможных алгоритмов машоба
Опять этот сектант всплыл, лол. Ну ладно, дадим тебе шанс доказать преимущества твоей Вапникосекты.
1)Оцени мне на глазок VC размерность VGG-19
2)Объясни, почему Resnet позволяют обучить больше слоёв, опять же с позиции VC
Не осилишь, будешь публично обоссан.
Аноним 07/12/17 Чтв 15:10:00  1104535
>>1104534
>1)Оцени мне на глазок VC размерность VGG-19
>2)Объясни, почему Resnet позволяют обучить больше слоёв, опять же с позиции VC
И то и другое - хуйня и путь в никуда, т.к. все упрется в вычислительные мощности, которые придется наращивать бесконечно, т.к. манянейроночки - только асимптотически-эффективная хуйня.
Аноним 07/12/17 Чтв 15:13:24  1104537
>>1104535
>бульк бульк бульк бульк
Аноним 07/12/17 Чтв 15:43:48  1104548
>>1103773
>можно сдавать в утиль
Статья одна большая фальсификация. В качестве теста рассматривалась специальная олимпиада с партиями по 1 минуте времени на ход. Подозреваю, что это был единственный режим, где они добились успеха против stockfish. Пусть приезжают на TCEC и сыграют нормальные партии 120 minutes + 30 seconds. Но они не приедут, т.к. обосрутся.
Аноним 07/12/17 Чтв 15:58:56  1104552
sameelo.PNG (26Кб, 473x275)
>>1103773
В качестве косвенного пруфа того, что у них не получился прорыв в шахматах против stockfish, можно рассматривать пикрил. Нарисовали, что рейтинг ЭЛО их нейросетевой программы на самую чуточку больше stockfish (для го и другой хуйни у них отрыв на порядок).

Поэтому и были выбраны партии по 1 минуте. Время партии/время на ход — это гиперпараметр. Они оптимизировались по нему, чтобы их программа выигрывала, чтобы можно было высрать маркетинговую статью и дальше ебать инвесторов на бабки.

Нужна независимая проверка их высера.
Аноним 07/12/17 Чтв 16:08:55  1104555
>>1104530
>cтатистического обучения Вапника.
Посоветуй что можно почтитать? Какой бекграунд для понимания нужен?
Аноним 07/12/17 Чтв 16:19:02  1104558
41DGQZQJh9L.SX3[...].jpg (25Кб, 329x499)
>>1104555
The nature of statistical learning theory, бэкграунд обычный, как и для любого машоба - матанализ, теория вероятностей, местами линейная алгебра.
Аноним 07/12/17 Чтв 16:27:30  1104561
>>1104530
>Совершенно верно, это называется идентификация системы по типу черного ящика, аппроксимация функциональной зависимости выхода от входов. В границах допустимых значений выхода и входов оно будет работать как биологический нейрон.
Линк на конкретную модель или фантазёр.
Аноним 07/12/17 Чтв 16:30:59  1104564
>>1104561
По первой же ссылке в гугле "system identification neuron" https://www.ncbi.nlm.nih.gov/pubmed/16776594 там и других работ полно.
Аноним 07/12/17 Чтв 16:35:18  1104565
>>1104564
Номер страницы, где определяется модель.
Аноним 07/12/17 Чтв 16:39:28  1104568
>>1104564
https://en.wikipedia.org/wiki/Sensory_neuron
Нахуй ты это говно сюда принёс?
Аноним 07/12/17 Чтв 16:41:10  1104569
>>1104564
Кароче, братишка, всё ясно. Ты ДУМАЕШЬ, что так можно сделать, но сделал ли это кто-то ты нихуя не в курсе и даже не пытался узнать. Так что пошёл нахуй с общими заявлениями про биологические нейроны.

Гуглер, блять.
Аноним 07/12/17 Чтв 17:09:36  1104577
layers.jpg (70Кб, 947x946)
>>1104565>>1104568
>Номер страницы, где определяется модель.
А номер значка в формуле не представить, тупень?
>>1104569
Дегенерат малолетний, нейросети на основе моделей биологических нейронов создавались еще в 90-х, Кохоненом, Коско и т.д. Но, внезапно, выяснилось что они ничем не превосходят любые другие существующие алгоритмы машинного обучения. А потом вылезли Лекун с Хинтоном, которые показали, что хуету можно стыковать, и понеслась пизда по кочкам. До сих пор всякая индусня именно этим направлением и занимается, попробуй объясни чурке-свидетелю наращивания слоев, что асимптотически-эффективная модель это путь в никуда. Но быдлу заходит, одна нвидия на своих видюхах поднимается на 800% в год. Видюхи крутятся - баблишко мутится. Кто же будет рабочую тему убивать. А нахуй ты идешь вместе с родителями, чучело.
Аноним 07/12/17 Чтв 17:28:13  1104585
>>1104577
>А номер значка в формуле не представить, тупень?
Всё ясно, саму статью ты сегодня первый раз в жизни увидел. Ч.т.д.

>>1104577
Пиздец аргументы уровня "васян где-то чёто делал в 90-х", линки на нерелевантное говно, которое ты погуглил потому что я тебе сказал (сам ты видимо недостаточно сообразительный, чтобы это сделать 10 лет назад).

Вот тебе факты жизни:
1. нет принципиального понимания как работает человеческий мозг (в том числе на уровне нейронов) и как из этой работы получается сознание/человеческий интеллект.
2. нет общих принципов построения ANN, всё что есть феноменологическое вуду (которое основано на самых очевидных свойствах биологического мозга), которое производит модели с кучей параметров, которые выставляют с потолка.

Как вы, тупые макаки, делаете вывод из 1 и 2, что сильный/человеокоподобный ИИ уже решённая задача мне просто непонятно. Точнее понятно, фантазёрство, proud ignorance syndrome, непонимание принипов научного познания.

https://en.wikipedia.org/wiki/AI_winter
На почитай и извлеки уроки из прошлого.
Аноним 07/12/17 Чтв 17:39:31  1104588
>>1104585
>2. нет общих принципов построения ANN, всё что есть феноменологическое вуду (которое основано на самых очевидных свойствах биологического мозга), которое производит модели с кучей параметров, которые выставляют с потолка.
Именно. Потому что сами нейроночки начались не с того. Естественно, что ничего хорошего и получиться не могло. Нахуярить от балды слоев, гиперпараметров и прочей хуйни без минимального представления зачем все это и при этом получить что-то ценное - нереально. Поэтому и шаманство и отсутствие даже внятных путей настройки под конкретные задачи кроме "ебись с фичами, гиперпараметрами и смотри что получится". Правильный подход - это формальная постановка самой задачи машинного обучения, от чего и нужно танцевать во всем, вплоть до вывода конкретных алгоритмов из этих же соображений. Т.е. все тот же Вапник.
Аноним 07/12/17 Чтв 17:41:44  1104590
>>1104585
>нет принципиального понимания как работает человеческий мозг
На уровне нейронов понимание есть. На уровне сознания человека - пока нет, но это вопрос времени. Винда и процессоры Пентиум тоже не сразу появились после изобретения транзистора.
Аноним 07/12/17 Чтв 17:42:04  1104591
>>1104390
красота
Аноним 07/12/17 Чтв 18:19:34  1104605
>>1104590
>На уровне нейронов понимание есть
объясняй. я вот считаю, что сознание и мысли лежат за пределами физ. тела.
Аноним 07/12/17 Чтв 18:21:35  1104607
>>1104605
>я вот считаю, что сознание и мысли лежат за пределами физ. тела.
Ты в это веруешь, а не считаешь. Чтобы так считать, нужны основания, а их у тебя нет, одна швитая вера в хуйню.
Аноним 07/12/17 Чтв 18:21:56  1104608
>>1104588
>Потому что сами нейроночки начались
форс этого говна начался, когда стал понятен охуительный потенциал экспертных систем и что бы макаки остались макаками им набросили это нейронное говно
Аноним 07/12/17 Чтв 18:24:48  1104609
>>1104607
>Чтобы так считать, нужны основания, а их у тебя нет, одна швитая вера в хуйню.
основания есть и это вполне популярная теория в академических кругах, а вот, то что мысли рождаются в мозгу это полнейший и не обоснованный бред
Аноним 07/12/17 Чтв 18:30:40  1104612
>>1104609
>не обоснованный
Аноним 07/12/17 Чтв 18:31:14  1104613
piramida-grema.png (35Кб, 800x550)
>>1104609
>это вполне популярная теория в академических кругах

Аноним 07/12/17 Чтв 18:34:14  1104616
>>1104612
>>1104613
дарвинист, плез
Аноним 07/12/17 Чтв 18:35:52  1104618
>>1104609
>основания есть
Нет оснований. Ты верунец = сосешь конец. Источник высшей нервной деятельности - это ЦНС, что доказано всеми возможными способами, начиная с 19 века. А манятеории верунцов это бред чучелоидов, не имеющих вообще ни одного подтверждения.
Аноним 07/12/17 Чтв 18:36:38  1104619
>>1104616
Ну и что ты сделаешь?
Аноним 07/12/17 Чтв 18:37:54  1104620
>>1104619
Намаз
Аноним 07/12/17 Чтв 18:39:26  1104622
>>1104620
Хороший гой.
Аноним 07/12/17 Чтв 18:40:15  1104624
>>1104618
>что доказано всеми возможными способами
типа ебнули по башке, стал дураком? то что мозг управляет телом никто не спорит, но не более.
Аноним 07/12/17 Чтв 18:41:13  1104625
>>1104619
в очередной раз посмеюсь с утенка
Аноним 07/12/17 Чтв 18:41:33  1104627
>>1104624 -> >>1104618
Аноним 07/12/17 Чтв 18:42:55  1104628
>>1104618
>ЦНС
можно ли считать школьника цнс?
Аноним 07/12/17 Чтв 18:44:14  1104629
>>1104625
Уроки доделай.
Аноним 07/12/17 Чтв 18:46:22  1104632
>>1104629
сам доделай
Аноним 07/12/17 Чтв 18:47:07  1104633
>>1104577
Нейронки решают определенные проблемы, которые не могли нормально решить до этого(распознавание изображений), так что какие проблемы?

Ты ведь знаешь что машоб это вообще не про сильный ии?
Аноним 07/12/17 Чтв 18:47:52  1104634
>>1104632
Ясно.
Аноним 07/12/17 Чтв 18:51:29  1104636
>>1104633
>распознавание изображений
нихуяшеньки они там не решили, не ври. даже ocr в жопе
Аноним 07/12/17 Чтв 19:28:02  1104650
>>1104636
I M A G E N E T
Аноним 07/12/17 Чтв 19:30:39  1104652
>>1104650
сОсИхУеЦ
Аноним 07/12/17 Чтв 19:32:04  1104654
>>1104652
Ну рас ты скозал что они ничего не решили, то ладно, пойду сосать. нет
Аноним 07/12/17 Чтв 19:34:46  1104655
>>1104654
не забудь челендж II: Object detection
http://image-net.org/challenges/LSVRC/2016/index
Аноним 07/12/17 Чтв 19:36:37  1104656
>>1104655
Find face тоже сосет потому что ты скозал что нейронки путь в никуда, а те теории, которыми именно ты интересуешься тру?
Аноним 07/12/17 Чтв 19:45:58  1104660
>>1104656
>Find face тоже сосет
возможно
Аноним 07/12/17 Чтв 20:28:20  1104693
>>1104552
>самую чуточку больше stockfish
>разница 100 эло
Независимая проверка была бы полезна, но она невозможна из-за необходимости огромных вычислительных ресурсов. Они, наверное, под миллион долларов сжигают на такие исследования, это никому больше не под силу.
Ну и ясно, что они свой лучший результат показывают, не худший же показывать? Скорее всего, одна минута на ход была выбрана ради экономии ресурсов.
Лично мне совершенно ясно, что со вчерашнего дня низкоуровневые оптимизации альфа-бета поиска официально мертвы. Это тупиковая ветвь. Нейроночки можно еще развивать и развивать, но даже в текущем виде старая программа не выиграла ни одного матча из 100. Вангую полную остановку работ по старым программам и перевод их на нейрорельсы, как это случилось с го.
Аноним 08/12/17 Птн 17:10:35  1105062
я школьник-х@хол, хорошо знаю на школьном уровне, хотя меня как раз не он интересует и люблю, олимпуады там всякие. всё время думал связать свою жизнь с программированием не всю жизнь, конечно, работу нужно менять, чтобы мозги не застыли, потом больше определился -- кибербезопасность в хохляндии хорошо развита, вроде. совсем недавно вот начал на питонтьюторе изучать пайтон, вроде получается. скоро начну ещё всякие книжечки читать. так вот, к чему эта охуеть длинная предыстория: в последнее время начали привлекать нейрончики, тем более, что это ближе к науке, чем остальное программирование. два вопроса:
1) насколько это перспективно?
2) как и куда вообще вкатываться, если ты живёшь в залупе мне кажется, даже в рашке есть в каких-то университетах специальности, с этим связанные?
Аноним 08/12/17 Птн 17:25:11  1105070
>>1105062
Какие вы хохлы меркантильные.
Я школотой задрачивал ассемблер просто потому, что мне это интересно было, а вам всем перспективы подавай.
Аноним 08/12/17 Птн 17:29:12  1105075
>>1105070
просто хочу съебать отсюда
Аноним 08/12/17 Птн 17:33:01  1105078
тошнит от окружающих людей
Аноним 08/12/17 Птн 17:46:07  1105087
>>1105075
Все хотят съебать, а перспективы есть только у детей олигархов.
Мое мнение - машоб не тот случай, где потребуется много спецов. Это не бухгалтерия, где тысячи 1С-ников ковыряют одинаковые формы, и не веб, где тысячи макак пилят одинаковые сайты.
Все типовые задачи для машоба скоро будут решены, и рыкон захватят компании-гиганты с умниками-профессорами в штате.
Аноним 08/12/17 Птн 17:46:44  1105088
>>1105087
>рынок
Аноним 08/12/17 Птн 17:51:18  1105092
>>1105087
в принципе, вроде очевидно, но спасибо, что обратил на это внимание. даже если подпаду когда-нибудь под определение умника-профессора, на корпорацию мне вкалывать точно не хочется.
Аноним 08/12/17 Птн 19:51:57  1105130
>>1105062
ФИВТ МФТИ, КТ ИТМО, ФКН ВШЭ, СПбАУ, с натяжкой ВМК МГУ и матмех СПбГУ. Стань призером Всеукраинской и поступишь без экзаменов. Алсо, можешь загуглить поступление для граждан иностранных государств на сайтах этих вузов.
Аноним 08/12/17 Птн 20:29:14  1105143
>>1105130
При чём здесь СПбАУ? У них упор не на машоб, а на жёсткий компутер сосаенс, не? хохол про дата сайенс спрашивает вроде
Аноним 08/12/17 Птн 23:48:38  1105229
>>1105143
Это такая школа жизни, после которой машоб будет казаться таблицей умножений (ну так оно и есть).
Аноним 09/12/17 Суб 00:43:19  1105250
Где глянуть краткое описание видов сетей, ну и примеры того для чего они все применяются, так сказать краткий обзор чтобы понять куда именно лучше вкатываться ?

То есть чтобы понять что именно лучше подходит под заранее известную задачу, чтобы потом, подобрав нужный инструмент, уже плотно заниматься именно им.
Аноним 09/12/17 Суб 06:52:33  1105299
>>1103575
Нервная модель стимула. Соколов, 60-е годы. Нихуя у вас тут авангард научной мысли. Лет через 20 до нечёткой логики додумаетесь.
Аноним 09/12/17 Суб 14:52:09  1105363
>>1103702

Потому что нет там никаких 2к гигабайт, изображение на входе будет весить 2мб, после первой свертки, допустим 2гб, что уже не в каждую видеокарту влезает, но дальше уже меньше и не будет там 2к гигабайт.
Просто так долго тренировать и батч в 1 картинку будет, что еще ухудшит качество.
INPUT: [224x224x3] memory: 2242243=150K weights: 0
CONV3-64: [224x224x64] memory: 22422464=3.2M weights: (333)64 = 1,728
CONV3-64: [224x224x64] memory: 224
22464=3.2M weights: (3364)64 = 36,864
POOL2: [112x112x64] memory: 11211264=800K weights: 0
CONV3-128: [112x112x128] memory: 112112128=1.6M weights: (3364)128 = 73,728
CONV3-128: [112x112x128] memory: 112
112128=1.6M weights: (33128)128 = 147,456
POOL2: [56x56x128] memory: 5656128=400K weights: 0
CONV3-256: [56x56x256] memory: 5656256=800K weights: (33128)256 = 294,912
CONV3-256: [56x56x256] memory: 56
56256=800K weights: (33256)256 = 589,824
CONV3-256: [56x56x256] memory: 5656256=800K weights: (33256)256 = 589,824
POOL2: [28x28x256] memory: 2828256=200K weights: 0
CONV3-512: [28x28x512] memory: 2828512=400K weights: (33256)512 = 1,179,648
CONV3-512: [28x28x512] memory: 2828512=400K weights: (33512)512 = 2,359,296
CONV3-512: [28x28x512] memory: 2828512=400K weights: (33512)512 = 2,359,296
POOL2: [14x14x512] memory: 1414512=100K weights: 0
CONV3-512: [14x14x512] memory: 1414512=100K weights: (33512)512 = 2,359,296
CONV3-512: [14x14x512] memory: 1414512=100K weights: (33512)512 = 2,359,296
CONV3-512: [14x14x512] memory: 1414512=100K weights: (33512)512 = 2,359,296
POOL2: [7x7x512] memory: 77512=25K weights: 0
FC: [1x1x4096] memory: 4096 weights: 775124096 = 102,760,448
FC: [1x1x4096] memory: 4096 weights: 40964096 = 16,777,216
FC: [1x1x1000] memory: 1000 weights: 40961000 = 4,096,000

TOTAL memory: 24M 4 bytes ~= 93MB / image (only forward! ~2 for bwd)
TOTAL params: 138M parameters
Аноним 09/12/17 Суб 18:27:34  1105499
Перекатил: >>1105498 (OP)
Аноним 09/12/17 Суб 22:59:53  1105657
>>1104693
>Ну и ясно, что они свой лучший результат показывают, не худший же показывать?
Тут "ноука" или что?
Аноним 09/12/17 Суб 23:01:16  1105659
>>1104273
Хорошая идею подбросили - ОБYOBЫВАТЕЛЬ.
Аноним 10/12/17 Вск 18:14:58  1105906
>>1105130
родители в ЗАГНИВАЮЩУЮ РАШКУ не отпустят. они, в принципе, нормальные, но в этом плане их переубедить сложно, ссориться не хочется, да и без их поддержки в другую страну я не перееду. в идеале бы поступить куда-то в канаду..................................................................................................
Аноним 10/12/17 Вск 22:43:11  1106087
>>1105906
Угу, в Канаду он собрался. Ну если ты долларовый миллионер, то езжай.
Аноним 13/12/17 Срд 08:02:27  1106896
>>1105659
https://lenta.ru/news/2017/12/13/aiporn/

[Назад][Обновить тред][Вверх][Каталог] [Реквест разбана] [Подписаться на тред] [ ] 537 | 38 | 114
Назад Вверх Каталог Обновить

Топ тредов
Избранное