[Ответить в тред] Ответить в тред

09/07/16 - Новое API для капчи - внимание разработчикам приложений
03/04/16 - Набор в модераторы 03.04 по 8.04
26/03/16 - Конкурс: Помоги гомункулу обрести семью!

Get Adobe Flash player


[Назад][Обновить тред][Вниз][Каталог] [ Автообновление ] 518 | 41 | 101
Назад Вниз Каталог Обновить

Machine Learning #4 Аноним 21/06/16 Втр 15:40:39 776147  
14665236397480.jpg (788Кб, 1920x1152)
Тред #1: https://arhivach.org/thread/147800/
Тред #2: https://arhivach.org/thread/170611/
Тред #3: https://arhivach.org/thread/179539/

Machine Learning 101:
1. Introduction to Statistical Learning ( http://www-bcf.usc.edu/~gareth/ISL/ISLR%20Sixth%20Printing.pdf )
Читается легко, неплохая разминка перед ESL
2. Pattern Recognition and Machine Learning, Bishop.
3. Bayesian Methods for Hackers. Введение в байесовские методы, годно.
4. http://neuralnetworksanddeeplearning.com
Введение в нейронные сеточки для самых маленьких. Написано простым английским.
5. https://yandexdataschool.ru/edu-process/courses - базовые курсы ШАДа.

Machine Learning Advanced
1. Elements of Statistical Learning (http://statweb.stanford.edu/~tibs/ElemStatLearn/printings/ESLII_print10.pdf )
Сложность - 9 из 10. Шутки в сторону, можно читать годами. Если вы сможете полностью проработать эту книгу и прорешать упражнения, обязательно свяжитесь со мной - у меня найдется работа для вас.
2. Optimization for Machine Learning. Edited by Suvrit Sra, Sebastian Nowozin and Stephen J. Wright, MIT Press, 2012.
Иногда from sklearn.linear_model import LogisticRegression перестает работать и тогда нужно все переписать. Оптимизация квадратичных приближений на больших объемах данных, разреженные модели, суррогатные оптимизации - вот это все тут есть.
3. http://www.cs.nyu.edu/~mohri/mlbook/
Как ESL, только слегка по-проще. Попробуйте, может зайти.

Дальше вас ждет дикий и необузданный мир. Два маяка https://vk.com/deeplearning и http://deeplearning.net/reading-list/ осветят дорогу: это списки литературы и обзоры статей для прощупывания пульса индустрии.

Computer Science
1. Introduction to Algorithms, Corman
2. The Art of Computer Programming, Knuth
3. Compilers: Principles, Techniques, and Tools. Разработчикам компиляторов и прочим авторам убийц питонов и крестов посвящается.
4. Введение в информационный поиск, Кристофер Маннинг.
Как работает поиск с теоретической точки зрения.

Programming
1. Python Unlocked. Короткая книжка без соплей. В ней описаны метаклассы, дескрипторы, системы типов, шаблоны проектирования и TDD. Всего чуть больше 100 страниц концентрированной сути.
2. Code Complete (2nd), McConnell.
Неплохая книга. Не то чтобы обдрочиться, но в голове всякие фишки по структуризации кода и его проектированию остались.

Misc
1. Telegram: @techsparks
Подкаст про всякие гик-штуки.

F.A.Q
По мотивам предыдущего треда.
Эти ваши книжки стоят овер 9000 рублей, как быть?
http://libgen.io
Книги хорошо, но с чего начать практический вкат?
Во-первых, вам нужна любая unix-based система. На Windows возможно запустить нижеперечисленное, но ждите пердолева с настройкой и неодобрительных взглядов анонимуса. Кроме того, в компаниях, так или иначе связанных с разработкой йоба-ПО и machine learningом, Linux/OS X является стандартом. Привыкайте.
Во-вторых, определитесь с языком. Python и C++ наиболее мейнстримовые инструменты, с ними вы без еды не останетесь. Есть еще R, на котором пацаны живут статистикой и анальными пакетами. Некоторые инструменты являются языко-независимыми (Vowpal Vabbit, XGBoost), но обвязывать их вы все равно будете из какой-либо среды.
На Java разработано много production-ready инструментов для бигдаты и если вы угораете по терабайтам данных, то имеет смысл посмотреть в её сторону. Впрочем, лучше это делать уже потом, когда прийдет осознание потребностей.
В-третих, выбирайте себе задачу. Что угодно: распознать качпу, обнаружить ботов по логам, найти раковых больных. Список можно посмотреть, например, на kaggle.com. После чего приступаете к решению выбранной задачи.
Не прийдется ли мне потом с таким наборищем знаний идти в макдак работать?
Несмотря на хайп вокруг ML, далеко не во всех IT компания есть необходимость в ML и понимание круга задач, которые можно решить этими методами. Но поверьте, в 2016 компетентный специалист будет востребован. В России потребителями ваших знаний могут стать: Яндекс, Mail.ru, Вконтакте, Rambler, Касперский, Билайн, Связной, ABBYY, Хуавэй. В биоинформатике есть определенный спрос, можно поскролить http://blastim.ru
Здорово, но я так и не понял чем же вы занимаетесь в IT компаниях?
Попытаюсь ответить со своей колокольни и сразу хочу предупредить, что это едва ли консенсуальное мнение.
ML-специалист - это такое зонтичное определение для человека, способного увидеть проблему, выгрепать кучу логов и данных, посмотреть на них, придумать решение проблемы и врезать это решение его в продакшн. По сути, это кодер, решающий не чисто технические, а, в некотором роде, человеческие проблемы.
Имхо, мы все же остаемся в первую очередь разработчиками.
Но ведь есть Machine Learning per se, чем он занимается?
Действительно есть. Одаренная прослойка людей изобретает новые методы, но это правильнее называть просто математикой. Сейчас пищей для ума являются нейронные сети и их возможные архитектуры, но даже они двигаются рука об руку с практикой.
Что такое TensorFlow?
TensorFlow - часть гуглового инструмента для перемножения тензоров и оптимизации функционалов. Часть - потому что важные куски типа параллелизации еще не выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и затычка для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.
Аноним 21/06/16 Втр 16:42:41 776227
>>776147 (OP)
>прослойка людей изобретает новые методы
Как туда попасть? ШАД, cs.hse годно?
Ответы: >>776271 >>777706
Аноним 21/06/16 Втр 17:06:24 776271
>>776227
а тебе что, ентерпраиз солюшены неинтересно разрабатывать?
знакомая рижанка поступила на пхд на западе с обычным дипломом по матеше
так что просто берёшь и поступаешь куда хочешь пока хайп не спал
Ответы: >>776760
Аноним 21/06/16 Втр 17:23:13 776311
https://www.youtube.com/watch?v=rIofV14c0tc[РАСКРЫТЬ]
Аноним 21/06/16 Втр 23:49:48 776596
>>776147 (OP)
Как обучают сеть чтобы она распознавала более сложные объекты, такие как классы автобус, кошек, яхты и т.д.
Ответы: >>776603 >>776769
Аноним 22/06/16 Срд 00:08:48 776603
>>776596
точнее, где берутся картинки для обучения?
Ответы: >>776697 >>776769 >>776935
Аноним 22/06/16 Срд 07:02:55 776697
>>776603
Я нуб, но по-моему что выборки картинок, подходящих под описание формируются вручную.
Читал недавно статью как чуваки делали фильтр прона для какого-то сайта. В итоге, чтобы нейроночка выдала хоть какой-то реальный процент правильно распознанных картинок, им пришлось вручную отфильтровать пару гигабайт порнухи.
Ответы: >>776768
Аноним 22/06/16 Срд 09:08:28 776760
>>776271
>ентерпраиз солюшены неинтересно разрабатывать
Нет. Я распознование капчи делал еще лет 5 назад. Это пиздец уныло.

>знакомая рижанка поступила на пхд на западе с обычным дипломом по матеше
Блядь, ну это же хуйня. На PhD любой дурак поступить может, вопрос делают ли там что-то реальное.
Аноним 22/06/16 Срд 09:20:39 776768
>>776697
>нейроночка выдала хоть какой-то реальный процент правильно распознанных картинок
исчо раз, нейронночка это говно и пеар, с технологиями оптических распознований объектов все плохо, от слова совсем.
Аноним 22/06/16 Срд 09:22:40 776769
>>776596
>>776603
очевидно сеть заставляет людей вручную составлять большие выборки помеченных картинок, чтобы потом сожрать их
у этих выборка была несколько сот миллионов пикч:
https://www.ted.com/talks/fei_fei_li_how_we_re_teaching_computers_to_understand_pictures?language=en
Ответы: >>776931
Аноним 22/06/16 Срд 10:56:13 776931
>>776769
Короч все хуйня и нужно обучение без учителя, а то так заебешься.
Ответы: >>776960
Аноним 22/06/16 Срд 10:58:12 776935
>>776603
Очевидный CIFAR для начала, дальше ещё Flickr.
Аноним 22/06/16 Срд 11:16:08 776960
>>776931
что у тебя за задача?
Ответы: >>776977
Аноним 22/06/16 Срд 11:25:49 776977
>>776960
пока никакой, просто разбираюсь че да как. С процом сижу обучаю цифрами с помехами
Аноним 22/06/16 Срд 14:31:07 777218
14666058678700.jpg (121Кб, 820x586)
Итак, в одном из прошлых тредов мне никто не пояснил за SVM. Я нихуя не могу понять суть этого метода, как именно он работает. Очевидно, что дело в недостатке некоторых знаний, которые предполагаются у читателя. Вопрос в том, есть ли нормальное объяснение, не предполагающее а включающее все наобходимое для понимания?
Аноним 22/06/16 Срд 14:39:48 777229
>>777218
Или задавай конкретные вопросы, или уёбывай читать Мёрфи/Бишопа, там кроме элементарного теор.вера, матана, линала и простейших оптимизационных алгоритмов от читателя не требуется.
А то ноешь, как капризный студентишка: "НИЧЕГО НИПАНЯТНА!"
Ответы: >>777232
Аноним 22/06/16 Срд 14:50:54 777232
>>777229
>читать Мёрфи
Это что?
Ответы: >>777237
Аноним 22/06/16 Срд 14:55:00 777237
>>777232
http://hagesjo.se/static/books/Murphy_ML.pdf
Ответы: >>777240
Аноним 22/06/16 Срд 14:59:56 777240
14666075969330.webm webm file (5830Кб, 1280x720, 00:02:01)
>>777237
Благодарствую, будем почитать. Надеюсь, там понятно объясняется.
Ответы: >>777247
Аноним 22/06/16 Срд 15:05:13 777247
>>777240
Проиграл с вебмки.
Аноним 22/06/16 Срд 15:14:36 777257
>>777218
а зачем он тебе?
Ответы: >>777268
Аноним 22/06/16 Срд 15:23:30 777268
>>777257
Прост)) Разобраться хочу как работает. Скажем, для общего развития. И вот мне несколько подпекает, что не могу вьехать.
Ответы: >>777277
Аноним 22/06/16 Срд 15:29:50 777277
>>777268
а ты на картинки смотрел? ну там прямая разделяет точки, вроде все доходчиво
Ответы: >>777288
Аноним 22/06/16 Срд 15:33:23 777288
>>777277
Хотелось бы именно понимания что и как происходит. Картинки и анимацию видел, ес-но.
Ответы: >>777297
Аноним 22/06/16 Срд 15:38:18 777297
>>777288
даже незнаю
а перцептрон тебе понятен?
Ответы: >>777300
Аноним 22/06/16 Срд 15:41:55 777300
>>777297
Да, нейроночки и не только нейроночки норм заходят, и не только перцептрон.
Ответы: >>777339
Аноним 22/06/16 Срд 16:19:27 777339
>>777300
с какого места непонятно?
в лагранжа множители умеешь?
Ответы: >>778047
Аноним 22/06/16 Срд 20:50:18 777587
>>777218
http://www.ccas.ru/voron/download/SVM.pdf
Ответы: >>778048
Аноним 22/06/16 Срд 20:58:37 777592
Как капчу-то распознавать?
Особо интересует гугл капча с картинками и кликами.
Ответы: >>777594
Аноним 22/06/16 Срд 21:00:02 777594
>>777592
Денег не хватит.
Аноним 22/06/16 Срд 21:13:31 777609
Жалко что я тупой, не осилю этого никогда. Я даже принстонский курс по алгоритмам не мог осилить.
Аноним 22/06/16 Срд 22:54:44 777679
Бля, анон, как же меня всё это заебало.
Я уже четыре ебучих месяца мучаю различные варианты MCMC на Марковских сетях. У меня нихуя не получается.
Кто-нибудь занимался графическими моделями?
Ответы: >>777706
Аноним 22/06/16 Срд 22:57:18 777681
Алсо, в прошлом тредике был анон, который пояснял за кучу Лапласов в разных точках. Как это культурно называется? Я правильно понял, что строится аппроксимация в виде смеси Гауссиан?
Ответы: >>777787
Аноним 23/06/16 Чтв 02:50:29 777706
ОП, спасибо за перекат, у меня времени совершенно не было.
>>776227
>ШАД
Да
>cs.hse
Бакалавриат сейчас вроде бы ОК, магистратура - хуйня.
>>777679
Ветров занимался
ОП прошлых тредов
Аноним 23/06/16 Чтв 07:09:51 777787
>>777681
> Я правильно понял, что строится аппроксимация в виде смеси Гауссиан?
да

тут для графических моделей рассматриваются всякие другие методы, может для себя чего нового найдёшь:
http://videolectures.net/mlss09uk_minka_ai/
Ответы: >>777991 >>778896
Аноним 23/06/16 Чтв 09:49:41 777991
>>777787
Как сокровищницу нашёл. Спасибо.
Аноним 23/06/16 Чтв 11:04:42 778047
>>777339
>в лагранжа множители умеешь?
Вот с лагранжа и непонятно. Точнее, все дальнейшие рассуждения.
Ответы: >>778061
Аноним 23/06/16 Чтв 11:06:42 778048
>>777587
Воронцова читал. Сначала вроде норм, а потом пошло-поехало.
Аноним 23/06/16 Чтв 11:27:25 778061
>>778047
посмотри на какую нибудь более простую похожую модель
например у бишопа в начале 6 главы есть простой пример линейной регрессии с ядрами
Оп хохол? Аноним 23/06/16 Чтв 13:22:40 778132
Я кажется тебя узнал.
Аноним 23/06/16 Чтв 16:42:20 778290
трепещите людишки
https://www.youtube.com/watch?v=tf7IEVTDjng[РАСКРЫТЬ]
Ответы: >>778296
Аноним 23/06/16 Чтв 16:47:16 778296
14667004370110.webm webm file (3419Кб, 900x504, 00:00:17)
>>778290
Ответы: >>778311
Аноним 23/06/16 Чтв 17:10:36 778311
>>778296
Машин лерниг ин э нат шэл.
Аноним 24/06/16 Птн 08:15:31 778634
>>776147 (OP)
Аноны, привет, вы меня помните?
Так вот, я заебался, читаю эту вашу книгу по алгоритмам и дошел до наивного Байесовского классификатора.
И охуел, я и так понимаю очень мало, так вот еще и там МАТАН, понимаете, самый что ни на есть матан в виде теории вероятности, которую я не знаю особо.
Ответы: >>778637 >>778649
Аноним 24/06/16 Птн 08:21:36 778637
>>778634
Есть куча книг и лекций по терверу и статистике.
Ответы: >>778639
Аноним 24/06/16 Птн 08:22:52 778639
>>778637
НА АНГЛИЙСКОМ?
Лел, уже не сегодня, голова болит от такого потока информации, который почти не разбираешь.
Да и по идее я должен понять все прямо из учебника, но нет.
Ответы: >>778648 >>778656 >>780199
Аноним 24/06/16 Птн 08:59:37 778648
>>778639
Видимо, ты слишком туп. Мне жаль, что так вышло.
Ответы: >>778653
Аноним 24/06/16 Птн 09:05:56 778649
14667591562780.gif (2507Кб, 301x250)
>>778634
продолжай, не здавайся
без твоих потугов тредик заглохнет
Ответы: >>778653
Аноним 24/06/16 Птн 09:11:33 778653
>>778648
Да можешь лесом гулять, зеленый.
>>778649
Это уже не просто потуги, а план чтения целой книги за месяц, в виде получения профита от изучения пары сотен новых слов и очень многих тем в машинном обучении.
Ответы: >>778657
Аноним 24/06/16 Птн 09:13:18 778656
>>778639
Уверен, что на русском тоже есть.
Вот например:
http://www.nsu.ru/mmf/tvims/teaching.html (есть лекции для студентов ЭФ 1-го курса и для ММФ 3-го курса)
https://cs.msu.ru/node/1198 (лекции для ВМиК МГУ 2-го курса, pdf-ка на либгене)

Сам смотрю вот эти:
https://www.youtube.com/watch?v=KbB0FjPg0mw&list=PL2SOU6wwxB0uwwH80KTQ6ht66KWxbzTIo[РАСКРЫТЬ]
К ним также есть учебник.
Аноним 24/06/16 Птн 09:14:12 778657
>>778653
дочитай и сразу начни заново
во второй раз будет понятней
Платина Аноним 24/06/16 Птн 10:56:20 778713
Посоветуйте книгу для максимум дебилов. Статистику только немного знаю на уровне всяких доверительных интервалов для неизвестных параметров и функций правдоподобности.
Ответы: >>778738
Аноним 24/06/16 Птн 11:21:29 778738
14667672899350.png (297Кб, 299x477)
>>778713
Ответы: >>778759
Аноним 24/06/16 Птн 11:43:59 778759
>>778738
Очень содержательная обложка, много узнал из нее.

home.manhattan.edu/~robert.geraci/apocalypticAI.pdf
Ответы: >>778772
Аноним 24/06/16 Птн 11:56:43 778772
14667694040350.png (871Кб, 2480x3508)
>>778759
поделись с нами знаниями
когда статистические модельки поработят человечество?
Ответы: >>778841
Аноним 24/06/16 Птн 14:06:53 778841
>>778772
Вон биномиальное распределение уже заставило Британию выйти из ЕС. Скоро за дело возьмется линейная регрессия, тогда держись.
Ответы: >>778848
Аноним 24/06/16 Птн 14:13:11 778848
>>778841
она в лучшем случае через года два выйдёт
эти мудаки ещё так затянуть могут что никто и не вспомнит о референдуме
Аноним 24/06/16 Птн 15:12:00 778896
>>777787
Хм, а ведь можно ведь параметры смеси приближать чем-нибудь вроде SPSA, пытаясь минимизировать KL-дивергенцию.
Ответы: >>778908 >>781622
Аноним 24/06/16 Птн 15:46:13 778908
>>778896
среди параметров могут быть жирные матрицы ковариантности с тысячами элементов, не замахаемся ли приближать такое?
Ответы: >>778949
Аноним 24/06/16 Птн 16:51:51 778943
Лучше понять как дельта ошибки в сверточной сети в слое pooling считать
Ответы: >>779001
Аноним 24/06/16 Птн 17:03:27 778949
>>778908
Они почти все разреженные, мб и сработает.
Хотя так и просто постериорный риск можно пытаться минимизировать, но это печально работало.
Блин, вывод в несопряжённых моделях – сплошная боль.
Аноним 24/06/16 Птн 17:52:22 779001
>>778943
Интерполированная минус вход.
Ответы: >>779125
Аноним 24/06/16 Птн 18:23:48 779026
Аноны, поясните мне что значит следующее:
>The first thing that we need to do to get these values is to quantise the measurement x, which just means that we put it into one of a discrete set of values {X},
Что значит квантизировать измерение x?
Типа есть некоторый прерывистый набор значений X
И у нас есть переменная, но как мы разместим значение x?
Ответы: >>779031
Аноним 24/06/16 Птн 18:26:35 779031
>>779026
Получение дискретного множества значений из непрерывных измерений. Можешь погуглить про квантование и дискретизацию.
Ответы: >>779033 >>779043
Аноним 24/06/16 Птн 18:27:37 779033
>>779031
Я уже на основе определения понял, спасибо.
Аноним 24/06/16 Птн 18:37:05 779043
>>779031
А что такое тогда Histogram bin?
Ответы: >>779046
Аноним 24/06/16 Птн 18:37:58 779046
>>779043
Столбик?
Ответы: >>779050
Аноним 24/06/16 Птн 18:40:12 779050
>>779046
Что подразумевается? Горизонтальный, вертикальный?
Или просто последовательность чисел?
Ответы: >>779064
Аноним 24/06/16 Птн 18:43:46 779064
>>779050
Графически гистограмма строится следующим образом. Сначала множество значений, которое может принимать элемент выборки, разбивается на несколько интервалов (bins). Чаще всего эти интервалы берут одинаковыми, но это не является строгим требованием. Эти интервалы откладываются на горизонтальной оси, затем над каждым рисуется прямоугольник. Если все интервалы были одинаковыми, то высота каждого прямоугольника пропорциональна числу элементов выборки, попадающих в соответствующий интервал. Если интервалы разные, то высота прямоугольника выбирается таким образом, чтобы его площадь была пропорциональна числу элементов выборки, которые попали в этот интервал.

Аноним 24/06/16 Птн 19:09:18 779103
Аноны, а что такое совместная вероятность? Вики говорит одно, а в книге написано
>This is exactly what is plotted in Figure 2.10. Now, if we have lots of examples of the two classes, and the histogram bins that their measurements fall into, we can compute P(Ci , Xj ), which is the joint probability, and tells us how often a measurement of Ci fell into histogram bin Xj .
Почему тут написано, что это то, как часто измерения Ci впадают в интервал гистограммы Xj?
Но ничего не сказано про:
>Вероятность суммы двух совместных событий равна сумме вероятностей этих событий без вероятности их произведения
Ответы: >>779111
Аноним 24/06/16 Птн 19:24:41 779111
>>779103
А лел, простая математика, умножаем P на Ci и P на Xj, а потом складываем? И зачем нам узнавать, выпадет ли Ci или Xj?
Или о чем говорится?
Аноним 24/06/16 Птн 19:57:46 779125
>>779001
что-то я не заметил в примере питона каких-то изменений для этого слоя, не понятно че да как.
Аноним 24/06/16 Птн 19:58:23 779126
Есть один проект на .net. Нужно выбрать язык для анализа данных и обучения. Что выбрать? Стандартные python или R, или же может F#? Что местные обучатели бы выбрали?
Ответы: >>779159
Аноним 24/06/16 Птн 20:50:36 779159
>>779126
Пиздон, ибо куча библиотек.
Ответы: >>779195
Аноним 24/06/16 Птн 21:21:23 779167
# y.shape[0] is (symbolically) the number of rows in y, i.e.,
# number of examples (call it n) in the minibatch
# T.arange(y.shape[0]) is a symbolic vector which will contain
# [0,1,2,... n-1] T.log(self.p_y_given_x) is a matrix of
# Log-Probabilities (call it LP) with one row per example and
# one column per class LP[T.arange(y.shape[0]),y] is a vector
# v containing [LP[0,y[0]], LP[1,y[1]], LP[2,y[2]], ...,
# LP[n-1,y[n-1]]] and T.mean(LP[T.arange(y.shape[0]),y]) is
# the mean (across minibatch examples) of the elements in v,
# i.e., the mean log-likelihood across the minibatch.
return -T.mean(T.log(self.p_y_given_x)[T.arange(y.shape[0]), y])

Бля, это получается не нужно обратное распространение ошибки?

Ответы: >>779170 >>779175 >>779214
Аноним 24/06/16 Птн 21:23:53 779170
>>779167
я хочу из питона написать на паскале пример сверточной сети. Но вот написал с обратым расп ош и без батчей и вместо пуллмакса сделал матрицу весов 2*2(что неправильно как я понял)
Ответы: >>779172
Аноним 24/06/16 Птн 21:24:45 779172
>>779170
везде как-то по еблански описали алгоритмы, и поэтому такие непонятки.
Аноним 24/06/16 Птн 21:30:31 779175
>>779167
grads = T.grad(cost, params)
updates = [(param_i, param_i - learning_rate * grad_i) for param_i, grad_i in zip(params, grads)]

а хотя не, вот же ОРО, вроде как
Ответы: >>779196
Аноним 24/06/16 Птн 22:14:08 779195
>>779159
Да, я тоже бы взял питон, если бы не один аргумент. Но если я возьму F#, то я у меня еще появится шанс научиться функциональщине.
Ответы: >>779197
Аноним 24/06/16 Птн 22:14:58 779196
>>779175
А нет
This tutorial will use the method of stochastic gradient method with mini-batches (MSGD)
тока я чет вероятности нигде не вижу
Аноним 24/06/16 Птн 22:18:20 779197
>>779195
Если преследуется чисто образовательные цели, то можно брать F# при наличии хорошей базы в ML и статистике.
Ответы: >>779200
Аноним 24/06/16 Птн 22:20:30 779200
>>779197
Нет, проект коммерческий, просто у меня будет много свободы принятия решений в нем.
Ответы: >>779201
Аноним 24/06/16 Птн 22:22:26 779201
>>779200
Что-то мне говорит, что F# будет достаточно дорогим решением, ибо спецов по нему не так много.
Ответы: >>779206
Аноним 24/06/16 Птн 22:28:43 779206
>>779201
Ок, я понял твою мысль. Спасибо.
Аноним 24/06/16 Птн 22:50:50 779214
>>779167

T.log - нахер этот логарифм? T.mean - это и есть аппроксимация?
Ответы: >>779224
Аноним 24/06/16 Птн 22:57:26 779216
Короч, на сколько я понял, логичнее всего где у нас пуллмакс просто записать из уменьшенного слоя в слой исходный просто размножить на 2*2, т.е. 4 раза повторить тот же результат что у нас был уменьшенном слое и все.
Ответы: >>779218
Аноним 24/06/16 Птн 22:58:36 779218
>>779216
Мои поздравления:
https://en.wikipedia.org/wiki/Nearest-neighbor_interpolation
Аноним 24/06/16 Птн 23:17:39 779224
>>779214
Хрен с ним со средним значением, вроде как понятно что из всего батча он среднее считает. Но почему отрицательный логарифм? Понятно что он оптимизирует эту функцию(где об этом почитать?) градиентным спуском(берет производную от функции ошибки), но как понять, что там делается между такими специфичными слоями где пулмакс?

>Между этими двумя видами градиентного спуска существует компромисс, называемый иногда «mini-batch». В этом случае градиент аппроксимируется суммой для небольшого количества обучающих образцов.

Это вообще не пойму где в коде, там только среднее значение есть, суммы не вижу.
Ответы: >>779238
Аноним 24/06/16 Птн 23:47:15 779238
>>779224
>Хрен с ним со средним значением, вроде как понятно что из всего батча он среднее считает. Но почему отрицательный логарифм? Понятно что он оптимизирует эту функцию(где об этом почитать?) градиентным спуском(берет производную от функции ошибки),

Короч вот так на этот вопрос

A common choice with the softmax output is the categorical cross-entropy loss (also known as negative log likelihood). If we have N training examples and C classes then the loss for our prediction \hat{y} with respect to the true labels y is given by:

\begin{aligned} L(y,\hat{y}) = - \frac{1}{N} \sum_{n \in N} \sum_{i \in C} y_{n,i} \log\hat{y}_{n,i} \end{aligned}

The formula looks complicated, but all it really does is sum over our training examples and add to the loss if we predicted the incorrect class. The further away the two probability distributions y (the correct labels) and \hat{y} (our predictions) are, the greater our loss will be. By finding parameters that minimize the loss we maximize the likelihood of our training data.
Аноним 25/06/16 Суб 04:53:38 779277
Аноны, что здесь значит fall into?
>Now, if we have lots of
examples of the two classes, and the histogram bins that their measurements fall into, we
can compute P(Ci , Xj ), which is the joint probability, and tells us how often a measurement of Ci fell into histogram bin Xj.
Давайте, вы же все знаете английский.
Тут же говорится о совместной вероятности двух событий.
Где все может быть записано как P(Ci)P(Xj), так почему тут говорится что одно fall into от другого? Опечатка?
Ответы: >>779290 >>779349
Аноним 25/06/16 Суб 05:44:10 779290
>>779277
> tells us how often a measurement of Ci fell into histogram bin Xj.
> говорит нам о том, как часто измерение Ci попадает в интервал Xj
Ответы: >>779292 >>779293
Аноним 25/06/16 Суб 05:48:53 779292
>>779290
Но это же условная вероятность, разве нет?
Причем тут общая вероятность?
Аноним 25/06/16 Суб 05:49:37 779293
>>779290
>and the histogram bins that their measurements fall into
Хорошо, а что тогда значит эта часть?
Аноним 25/06/16 Суб 08:20:48 779341
http://www.inference.phy.cam.ac.uk/mackay/thesis.pdf
Аноним 25/06/16 Суб 08:38:11 779349
>>779277
> все может быть записано как P(Ci)P(Xj)
Не может быть. Это верно только для независимых событий.
Вероятность пересечения — количество измерений класса Ci попавших в интервал Xj делить на количество всех измерений (в x в обозначениях твоей книжки):
P(Ci, Xj) = |Ci ∩ Xj| / |x|

Аналогично:
P(Ci) = |Ci| / |x|

Условная вероятность P(Ci | Xj) — рассматриваем только Xj, это теперь это все наши измерения, других больше нет.
Количество измерений класса Ci теперь равно |Ci ∩ Xj|, остальные выкидываем.
Количество всех измерений теперь равно |Xj|, а не |x|.
P(Ci | Xj) = |Сi ∩ Xj| / |Xj| = P(Ci, Xj) / P(Xj).

Откуда:
P(Ci, Xj) = P(Ci | Xj) P(Xj)
Ответы: >>779358
Аноним 25/06/16 Суб 08:59:14 779358
>>779349
А все, получается, что я joint probability неправильно перевел и все по пизде пошло?
Спасибо.
Ответы: >>779364
Аноним 25/06/16 Суб 09:09:05 779364
>>779358
Верно ты перевел, joint probability — совместная вероятность или вероятность совместного появления (двух) событий.
Для независимых событий это верно, что P(AB) = P(A)P(B), но в общем случае нет.
Ответы: >>779368
Аноним 25/06/16 Суб 09:13:03 779368
>>779364
А все, тогда меня подвел русский интернет, который сразу выдал про независимые события.
Ладно, уже подбираюсь к Гауссу по книге, завтра про нейронки буду читать, видел, что там наконец код появится.
Аноним 25/06/16 Суб 12:03:58 779455
Я правильно понял, что там разница только в том что целевая функция в ОРО разница сумм полученного значения и целевого, а в сверточной сделали сумму логарифмов произведения полученного значения и целевого?
Ответы: >>779458
Аноним 25/06/16 Суб 12:06:02 779458
>>779455
Хз, о чём ты, но первое напоминает MST, а второе кросс-энтропию. Ты об этом?
Ответы: >>779459 >>779462
Аноним 25/06/16 Суб 12:06:20 779459
>>779458
> MSE
быстрофикс
Аноним 25/06/16 Суб 12:07:44 779462
>>779458
https://ru.wikipedia.org/wiki/%D0%9C%D0%B5%D1%82%D0%BE%D0%B4_%D0%BE%D0%B1%D1%80%D0%B0%D1%82%D0%BD%D0%BE%D0%B3%D0%BE_%D1%80%D0%B0%D1%81%D0%BF%D1%80%D0%BE%D1%81%D1%82%D1%80%D0%B0%D0%BD%D0%B5%D0%BD%D0%B8%D1%8F_%D0%BE%D1%88%D0%B8%D0%B1%D0%BA%D0%B8

https://wikimedia.org/api/rest_v1/media/math/render/svg/78c57cb0c9229b0698f980dd213390367f9b87d2

http://www.wildml.com/2015/09/implementing-a-neural-network-from-scratch/

http://s0.wp.com/latex.php?latex=%5Cbegin%7Baligned%7D++L%28y%2C%5Chat%7By%7D%29+%3D+-+%5Cfrac%7B1%7D%7BN%7D+%5Csum_%7Bn+%5Cin+N%7D+%5Csum_%7Bi+%5Cin+C%7D+y_%7Bn%2Ci%7D+%5Clog%5Chat%7By%7D_%7Bn%2Ci%7D++%5Cend%7Baligned%7D++&bg=ffffff&fg=000&s=0
Ответы: >>779464
Аноним 25/06/16 Суб 12:09:11 779464
>>779462
Да, ты об этом. Значение обоев знаешь?
Ответы: >>779466
Аноним 25/06/16 Суб 12:10:26 779466
>>779464
Ну какбе 2 разные целевые функции, но почему в одном случае одна, в другом - другая, я -хз.
Ответы: >>779468 >>779471
Аноним 25/06/16 Суб 12:11:24 779468
>>779466
во втором какая-то муть с вероятностями(стохастическая типа)
Аноним 25/06/16 Суб 12:13:25 779471
>>779466
https://goo.gl/dRWwHa
https://goo.gl/eMT3rk
Ответы: >>779513
Аноним 25/06/16 Суб 12:58:07 779513
>>779471
Ясно, спс. Т.е. метод тот же - ОРО, только целевая функция другая?
Ответы: >>779521
Аноним 25/06/16 Суб 13:09:38 779521
>>779513
> ОРО
Даже если бы вместо ОРО ты писал BP, было бы понятнее, хотя BP - ещё и Belief Propagation.

Да, целевая функция другая, её выбор зависит от ситуации.
Ответы: >>779528 >>779539
Аноним 25/06/16 Суб 13:14:21 779528
>>779521
Английский понимаю через слово, не совсем понял в каких ситуациях.
Аноним 25/06/16 Суб 13:21:03 779539
14668608633840.png (7Кб, 275x114)
>>779521
правильно ли я понимаю, что считать ошибку теперь надо так?
Ответы: >>779556
Аноним 25/06/16 Суб 13:28:14 779546
Аноны, а ведь нейронную сеть можно применить в РПГ
Где твой персонаж будет реально учиться владеть мечем, кидать ножи, стрелять из разного оружия
Ответы: >>779553 >>779555
Аноним 25/06/16 Суб 13:30:13 779550
мне бы твой энтузиазм и рвение
Аноним 25/06/16 Суб 13:30:34 779553
>>779546
И в чем будет заключаться реальность? "Мышцы" правильно двигать, подставлять в нужное положение?
Ответы: >>779587
Аноним 25/06/16 Суб 13:31:05 779555
>>779546
Классика тредика:
"А ведь нейроночку можно применить в X для Y"
Аноним 25/06/16 Суб 13:31:37 779556
>>779539
А хуй знает, в статье что пишут?
Ответы: >>779565
Аноним 25/06/16 Суб 13:39:29 779565
14668619699720.png (9Кб, 339x140)
>>779556
Хз, не находил.
Короч по логике, если сигмоида, вроде так окончательно получается.

Ответы: >>779575 >>779937
Аноним 25/06/16 Суб 13:49:25 779575
>>779565
Бля, тока без минуса перед двойкой для последнего уровня.
Аноним 25/06/16 Суб 13:59:57 779587
>>779553
Ну тоже вариант.
Еще правильно стрелять с разных расстояний и оружия, перепрыгивать через препятствия.
Ответы: >>779591
Аноним 25/06/16 Суб 14:08:02 779591
>>779587
https://www.youtube.com/watch?v=wBrwN4dS-DA[РАСКРЫТЬ]
https://www.youtube.com/watch?v=pgaEE27nsQw[РАСКРЫТЬ]

Смотрел уже?
Ответы: >>779593
Аноним 25/06/16 Суб 14:12:14 779593
>>779591
Эх, смотрел, но во втором это не нейроночка, а эволюционный алгоритм
Аноним 25/06/16 Суб 14:33:51 779605
Как можно применить нейроночки для новой нейро-АИБ?
Ответы: >>779614
Аноним 25/06/16 Суб 14:41:12 779614
>>779605
Применить RL для имитации шатаний Абу, но это оффтопик.
Аноним 25/06/16 Суб 14:49:11 779626
если сделать нейроночку с 100 миллионов нейронов то получится искусственный интеллект
почему вы ещё не додумались?
Ответы: >>779633 >>779634 >>780001
Аноним 25/06/16 Суб 14:53:27 779633
>>779626
100 миллионов нейронов еще применять нужно научиться
Аноним 25/06/16 Суб 14:54:01 779634
>>779626
исскуственный интеллект - массив
следовательно монада - искусствненный интеллект
Аноним 25/06/16 Суб 20:49:09 779896
Ребят, такая вот задача. Есть выборка в 100к предложений, независимых друг от друга. Все они принадлежат одному классу. Необходимо по любому предложению оценивать, принадлежит ли оно данному классу. Как решать такие задачи?
Ответы: >>779923 >>780072
Аноним 25/06/16 Суб 20:55:11 779898
и восстали машины из пепла ядерного огня, и пошла война на уничтожения человечества и шла она десятилетия, но последнее сражение состоится не в будущем, оно состоится здесь, в наше время, сегодня ночью
Аноним 25/06/16 Суб 22:00:33 779923
14668920338450.png (9Кб, 255x361)
14668920338451.png (3Кб, 561x320)
>>779896
>Как решать такие задачи?
Рассчитать хеш по строке, наверное.
Ответы: >>780071
Аноним 25/06/16 Суб 22:12:52 779934
Эх, парни, когда-нибудь и я буду с вами итт умные вещи обсуждать. Но придется сперва добить свои текущие скучные нудные проекты.
Аноним 25/06/16 Суб 22:14:46 779937
>>779565
пиздос, тут уже другая формула

https://www.ics.uci.edu/~pjsadows/notes.pdf
Аноним 26/06/16 Вск 02:19:16 780001
14669075570380.gif (1277Кб, 280x200)
>>779626
Про переобучение слышал?
Аноним 26/06/16 Вск 05:38:29 780050
>>776147 (OP)
Аноны, а бесконечное число при высшем количестве измерений будет сжиматься?
Как взаимодействуют бесконечность и проклятие размерности?
Ответы: >>780067
Аноним 26/06/16 Вск 06:58:19 780067
>>780050
> бесконечное число
define
> сжиматься
define
Аноним 26/06/16 Вск 07:15:55 780071
>>779923
Чушь полная.
Аноним 26/06/16 Вск 07:17:20 780072
>>779896
Может я плохо выразился, по любому предложению, даже не принадлежащему обучающей выборке.
Аноним 26/06/16 Вск 10:01:22 780199
>>778639
По теорверу и основам статистики есть годный учебник - Вентцель, "теория вероятности". Не на английском.
Аноним 26/06/16 Вск 10:30:21 780217
когда вообще можна вкатываться в этот ваш ML, учу web и думаю стоит ли вообще идти делать вышку или сразу пытаться найти работу с минимальными знаниями в web, темы вроде бигдаты и ML интересуют меня, но берут ли туда без опыта в чем то проще типа того же веба, даже если я выштудирую большую часть тех книг из шапки возьмут ли меня каким то джуном (в ML) без вышки и опыта? Как быть анон, наверняка в треде матёрые специалисты сидят, которые могут дать совет
Ответы: >>780219 >>780241 >>780416
Аноним 26/06/16 Вск 10:32:56 780218
14669371762500.png (154Кб, 1406x878)
Короче, что я понял за SVM (если несу хуйню, прошу поправить):
1) SVM представим в форме нейроночки (Воронцов), скрытый слой которой - ядра, умноженные в т.ч. на соотв. им множители Лагранжа, которые равны 0 для всех векторов датасета кроме опорных. Т.о. число элементов скрытого слоя = пространству Вапника-Червоненкиса для данного датасета.
2) Сами множители Лагранжа находятся оптимизацией квадратичного функционала ф-ии лагранжа с заданными ограничениями, что сводится к задаче квадратичной оптимизации и решается любыми подходящими солверами.
3) Ограничения заданы так, чтобы множители Лагранжа имели ненулевое значение только для опорных векторов, т.е. тех, что лежат точно на границе гиперповерхности, разделяющей классы датасета. Ебля с ядрами нужна для работы с линейно-неразделимыми классами в датасетах. Суть использования ядер в замене линейного расстояния между элементами датасета на нелинейное между их отображениями, задаваемыми ядром.
4) В реальных SVM вместо простого решения задач квадратичной оптимизации используются всякий онанизм вприсядку, т.к. при больших датасетах матрицы получаются совершенно конских размеров (10000 примеров-векторов в датасете даст матрицу в 100000000 векторов и т.д.).
Ответы: >>780222
Аноним 26/06/16 Вск 10:34:12 780219
>>780217
Зачем тебе МL? Потому что платят якобы больше?
Ответы: >>780228
Аноним 26/06/16 Вск 10:36:20 780222
>>780218
>множители Лагранжа,
>слоя = пространству Вапника-Червоненкиса
ебаные наркоманы, теперь я понимаю почему вся эта ваша ии хуета не работает
Ответы: >>780224 >>780346
Аноним 26/06/16 Вск 10:37:49 780224
>>780222
В нормальных туториалах нет такого говна.
Аноним 26/06/16 Вск 10:41:35 780228
>>780219
просто интересуют темы посложнее, не хочу всю жизнь пилить сайтики, конечно я понимаю что прийдётся тратить овер дохуя времени на самообучение, но это намного интереснее, просто я понятия не имею как выстраивать карьерную лестницу, загуглил оферы по мл там только всего околок 7 оферов и в 6 нужео сеньор, в 1 практика для студентов. А в остальном посмотрел на оферы в целом, почти везде требуются знания web
Ответы: >>780229
Аноним 26/06/16 Вск 10:44:31 780229
>>780228
P.S. оферы в целом я имею ввиду на разные технологии типа питона, джавы
Аноним 26/06/16 Вск 11:00:46 780241
>>780217
бамп
Аноним 26/06/16 Вск 11:52:32 780346
>>780222
>теперь я понимаю почему вся эта ваша ии хуета не работает
Потому что тебе не знакомы какие-то слова в тексте? И причем тут ИИ?
Ответы: >>780365
Аноним 26/06/16 Вск 12:03:17 780365
>>780346
а нейронные сети уже не ии?
Ответы: >>780376 >>780377
Аноним 26/06/16 Вск 12:11:01 780376
>>780365
>а нейронные сети уже не ии?
Нейроночки просто удобное представление для алгоритмов МЛ, т.к. в любом из них есть элементы, слои, веса и т.д. Задача собственно моделирования функций нервной системы или какой-то ее части ставится в очень немногих алгоритмах, из которых практически используются перцептроны, SOM да сверточные сети. И они как раз норм работают. Сверточные сети на сегодняшний день самый годный сетод распознавания изображений.
Ответы: >>780403
Аноним 26/06/16 Вск 12:11:01 780377
>>780365
А SVM является нейронной сетью?
Ответы: >>780391
Аноним 26/06/16 Вск 12:27:15 780391
>>780377
всё является нейронной сетью, няша
даже твоя мамка, даже аллах, даже брексит
Аноним 26/06/16 Вск 12:31:10 780398
14669442703930.png (46Кб, 485x537)
И таки я примерно правильно понял суть SVM, только что нашел, в пакете для R kernlab расписано как запилить SVM вручную, пикрелейтед. Сначала подготавливают данные, затем делают RBF-ядро и задают параметр С, затем натягивают сову на кернел получают проекцию датасета на кернел и далее подкладывают все это солверу для нахождения седловой точки совы множителей Лагранжа.
Ответы: >>780409
Аноним 26/06/16 Вск 12:32:49 780403
>>780376
>Задача собственно моделирования функций нервной системы
задача нейронной сети пилить гранты и кормить говном ньюфагов, к биологическому подобию мозга неимеющего абсолютно никакого отношения, а также полный абасрамс в любом более менее серьезном ии проекте, например ocr
Аноним 26/06/16 Вск 12:35:43 780409
>>780398
да всё верно
теперь разберись с RVM - модная патентованая модель
Аноним 26/06/16 Вск 12:38:39 780416
>>780217
>>780217
попробую ещё раз бампнуть
Ответы: >>780799
Аноним 26/06/16 Вск 20:19:13 780799
>>780416
Как видишь, у нас тут толком математику никто не знает. Зависит от математической базы всё.
Ответы: >>780864 >>780879
Аноним 26/06/16 Вск 21:31:07 780864
>>780799
>у нас тут толком математику никто не знает
анончик поясни, нахуй твоя математика вообще нужна?
Ответы: >>780870
Аноним 26/06/16 Вск 21:35:19 780870
>>780864
Чтобы брать гранты от всяких научных организаций и заниматься всякой интересной мне хуйнёй, заодно заигрывая со студентками и аспирантками.
А вообще дата сайенс нормально так хайпнут, а здесь без этого никуда. Тут дохуя примеров приводилось.
Ответы: >>780889
Аноним 26/06/16 Вск 21:48:06 780879
>>780799
насколько я понял для всякого ии и дата сайнс придется все же делать вышку? Тогда такой вопрос, что начинать изучать если у меня до поступления в вуз несколько лет ещё + несколько лет обучения, что б не тратить время в пустую( я имею ввиду технологии/области матана)
Ответы: >>780883 >>780885
Аноним 26/06/16 Вск 21:51:03 780883
>>780879
Счастливчик, вместе с погроммированием и алгоритмами пробуй начинать изучать вузовский курс математики. Не торопясь и основательно. К третьему курсу уже будешь давать на клыка всей своей шараге.
Ответы: >>781379
Аноним 26/06/16 Вск 21:52:50 780885
>>780879
Посмотри шапку этого треда:
https://2ch.hk/sci/res/369067.html
Только в целом со ски осторожней, у них там дохуя поехавших. Обрати внимание на элементарный курс и базовый.
Ответы: >>781379
Аноним 26/06/16 Вск 22:01:43 780889
>>780870
>заодно заигрывая со студентками и аспирантками
ты ебанись, поехавший
Ответы: >>780893
Аноним 26/06/16 Вск 22:06:35 780893
>>780889
Я же не уточнил, что это всё в моём влажном манямирке. На деле заигрывания для меня сводится к кивку знакомой страшной дырке, поверхность лица которой неплохо описывается Гауссовским полем, фигура линейно разделяет пространство, а волосы напоминают логотип Хабра.
А гранты ирл есть, да.
Аноним 27/06/16 Пнд 00:58:31 780919
Это что получается, что гиперболический тангенс для кросс энтропии не используешь из-за того, что не сокращается знаменатель?

https://www.ics.uci.edu/~pjsadows/notes.pdf
Ответы: >>781022
Аноним 27/06/16 Пнд 07:15:07 781022
>>780919
всмысле?
Ответы: >>781178
Аноним 27/06/16 Пнд 11:13:54 781178
>>781022
ну если в знаменателе 0, то лажа получается
Ответы: >>781192
Аноним 27/06/16 Пнд 11:33:24 781192
>>781178
точнее вычислять можно, как-то это теано делает, но вот просто взять производную - хер.
Аноним 27/06/16 Пнд 14:09:25 781294
https://github.com/open-source-society/data-science/blob/master/README.md

ЧЁ ТАК МАТЕМАТИКИ МНОГО
Ответы: >>781300 >>781302 >>781329
Аноним 27/06/16 Пнд 14:24:13 781300
>>781294
> децкий комиксовый пиндоский линальчик
> децкий комиксовый пиндоский матанчик
> децкий комиксовый пиндоский терверчкик
если закостенелое 200-летнее говно мамомнта для тебя "математика" то бедапичаль конечно
Ответы: >>781315
Аноним 27/06/16 Пнд 14:26:37 781302
>>781294
Все эти онлайн курсы чушь по сравнению с тем, что заставляют учить в рашковузах.

Возьмем, например, вот этот:
Linear Algebra - Foundations to Frontiers 15 weeks 8 hours/week

Смотрим на список тем:
Week 0 Get ready, set, go!
Week 1 Vectors in Linear Algebra
Week 2 Linear Transformations and Matrices
Week 3 Matrix-Vector Operations
Week 4 From Matrix-Vector Multiplication to Matrix-Matrix Multiplication
Week 5 Matrix-Matrix Multiplication

5 сраных недель на то, чтобы добраться до перемножения матриц! На это хватит недели.

Week 6 Gaussian Elimination
Week 7 More Gaussian Elimination and Matrix Inversion
Week 8 More on Matrix Inversion
Week 9 Vector Spaces
Week 10 Vector Spaces, Orthogonality, and Linear Least Squares
Week 11 Orthogonal Projection and Low Rank Approximation
Week 12 Eigenvalues and Eigenvectors

Это еще максимум пару недель.

А вообще, весь этот курс или эквивалент можно за неделю выучить, если время есть.
Ответы: >>781309 >>781310
Аноним 27/06/16 Пнд 14:34:54 781309
14670380945030.jpg (34Кб, 600x359)
>>781302
Дрочить матан ударными темпами, чтобы забыть 95% материала после экзамена - это по-комсомольски, да.
Ответы: >>781311 >>781312
Аноним 27/06/16 Пнд 14:39:12 781310
>>781302
Лол, не верю.
Аноним 27/06/16 Пнд 14:40:51 781311
>>781309
Плюсану. "Выучить" это за неделю можно только ради сдачи экзамена, что в рашковузах и практикуется.
Аноним 27/06/16 Пнд 14:42:39 781312
>>781309
Разумеется придется повторять или применять после этого, это к любым навыкам и знаниям относится. Use it or lose it.
Аноним 27/06/16 Пнд 14:48:49 781315
>>781300
А это не математика для тебя еблан, теория комплексных полей и арифметика оба математики
Аноним 27/06/16 Пнд 14:51:59 781316
14670391200530.png (66Кб, 626x344)
14670391200541.png (21Кб, 533x199)
Что делать дальше?
Ответы: >>781324 >>781365
Аноним 27/06/16 Пнд 14:58:32 781324
>>781316
Разбираться.
Ответы: >>781332
Аноним 27/06/16 Пнд 15:01:18 781329
>>781294
>4 курса по питону общей длительностью полгода
Это для даунов, что ли?
Аноним 27/06/16 Пнд 15:12:41 781332
>>781324
При чём тут accuracy и что делать с kf?
Аноним 27/06/16 Пнд 16:08:06 781353
Короч, я так и не понял как применить кросс энтропийную целевую функцию, если функция активации у меня гиперболический тангенс.
Ответы: >>781357 >>781359 >>781368
Аноним 27/06/16 Пнд 16:13:49 781357
>>781353
а теано применяет automatic differentiation,а как мне -хз
Аноним 27/06/16 Пнд 16:23:46 781359
>>781353
Типа выебнулся словечками умными?
Ответы: >>781360
Аноним 27/06/16 Пнд 16:26:43 781360
>>781359
Те кто в теме должны понимать же. А что вы ту забыли, уважаемый?
Аноним 27/06/16 Пнд 16:33:31 781365
>>781316
Ну помогите
Аноним 27/06/16 Пнд 16:43:55 781368
>>781353
применяй как обычо
у тебя на самом внешнем слое сигмоиды/софтмаксы же?
тогда логарифм праводоподобности разложится на сумму кросс энтропии, ему похер какая у тебя функция активации во внутренних слоях
Ответы: >>781383 >>781398
Аноним 27/06/16 Пнд 16:54:58 781379
>>780883
>>780885
спс, аноны!
Аноним 27/06/16 Пнд 16:59:11 781383
>>781368
хм, точно, тока щас обратил внимание, что в питоне в примере софтмакс на последнем слое.
Аноним 27/06/16 Пнд 17:19:51 781398
>>781368
Разговор семена
Ответы: >>781406
Аноним 27/06/16 Пнд 17:25:04 781406
14670483043730.webm webm file (1038Кб, 640x360, 00:00:07)
>>781398
тебе чо пригорело штоле?
Аноним 27/06/16 Пнд 19:38:37 781622
>>778896
Такое уже есть:
https://projecteuclid.org/download/pdfview_1/euclid.ba/1386166315
Аноним 28/06/16 Втр 06:53:38 781907
Всем привет. Учиться по этому ресурсу норм?

http://deeplearning.net/
Ответы: >>781951
Аноним 28/06/16 Втр 08:41:46 781951
>>781907
привет
какие у тебя цели?
Ответы: >>781992
Аноним 28/06/16 Втр 09:18:01 781992
>>781951
привет
я просто услышал что это модно и хочу влиться в илитную тусовку
Ответы: >>781997
Аноним 28/06/16 Втр 09:24:33 781997
>>781992
привет
тогда http://deeplearning.net/ - то что тебе нужно!
Аноним 28/06/16 Втр 12:14:57 782273
Я вот хотел начать курс по тому что кидали выше на гитхабе, но вы его раскритиковали, мол как так, там алгебра за неделю учится! Плюс там как я посмотрел много повторяющихся вещей, а может какой нибудь еще есть роадмап, потому что в оп посте сразу в книгу по статистике кидают. На фоне у меня опыт только в мобильной разработке меньше года.
Ответы: >>782327 >>782369
Аноним 28/06/16 Втр 12:53:34 782327
>>782273
https://www.reddit.com/r/MachineLearning/wiki/index
Ответы: >>782369
Аноним 28/06/16 Втр 13:19:50 782369
>>782273
Учебник по мат. анализу.
Учебник по линейной алгебре параллельно к матану.
После этого учебник по терверу и статистике.
Этого должно быть достаточно для того, чтобы начать читать книги по ML.

По ссылке в >>782327 предлагается курс по алгебре Strang'а, он не углубляется в теорию, но его должно быть достаточно. Материал относительно простой и подается нормально. Есть пдфки с контрольными работами и ответами к ним, даже указаны баллы за задачи, так что можно будет выставить себе оценку.

ML класс от Andrew Ng не рекомендую, слишком поверхностно, лучше посмотреть его лекции на ютубе и читать материалы к курсу, которые доступны здесь:
http://cs229.stanford.edu/
Но этот курс только после того, как закончишь с тервером и статистикой.

Про остальные ссылки из той вики ничего не могу сказать.

> хотел начать курс по тому что кидали выше на гитхабе, но вы его раскритиковали, мол как так, там алгебра за неделю учится!
Что касается онлайн курсов. То, что в них подается все в довольно поверхностном или практическом виде и не требует значительного времени на изучение, не обязательно является чем-то плохим. Во всяком случае для чтения книг по ML инфы там достаточно, а углубиться в какую-нибудь тему можно будет по необходимости.
Ответы: >>782380 >>782757
Аноним 28/06/16 Втр 13:29:13 782380
>>782369
Поддвачну, но лучше наверное начать с линала, а потом в матан.
Аноним 28/06/16 Втр 13:49:10 782398
http://ofir.io/How-to-Start-Learning-Deep-Learning/
Аноним 28/06/16 Втр 13:51:34 782402
>>777218
https://www.youtube.com/watch?v=_PwhiWxHK8o[РАСКРЫТЬ]
Ответы: >>782464
Аноним 28/06/16 Втр 14:32:33 782464
14671243537120.png (411Кб, 787x586)
>>782402
Вот этот момент не понял. Почему х+ = 1-b, а x- = 1+b
Ответы: >>782465 >>782488
Аноним 28/06/16 Втр 14:33:46 782465
>>782464
По определению.
Ответы: >>782468
Аноним 28/06/16 Втр 14:40:19 782468
>>782465
Да нет, он это как-то вывел из уравнения yi (xi w + b ) -1 = 0
Ответы: >>782483
Аноним 28/06/16 Втр 14:50:32 782483
>>782468
Даунский вопрос же. Где там выписываются это равенство? Мужик говорит, x times w equals to 1 - b.
Ответы: >>782493
Аноним 28/06/16 Втр 14:54:34 782488
>>782464
если х+ и х- опорные векторы то это следует прямо из определения на 9 минуте
Аноним 28/06/16 Втр 14:57:38 782493
14671258585200.png (240Кб, 547x330)
>>782483
>Где там выписываются это равенство?
В рамке за нумером 2.
Ответы: >>782496
Аноним 28/06/16 Втр 15:01:46 782496
>>782493
Где-то здесь.
Ответы: >>782499
Аноним 28/06/16 Втр 15:02:05 782499
>>782496
Сорян, ссылка отклеилась.
https://youtu.be/_PwhiWxHK8o?t=1071[РАСКРЫТЬ]
Ответы: >>782505
Аноним 28/06/16 Втр 15:06:33 782505
>>782499
Нужно вычислить величину (x_+ - x_- ) w / |w|, где x_+, x_- опорные векторы, то есть такие, которые удовлетворяют уравнению
+1 (x_+ w + b) - 1 = 0
-1 (x_- w + b) - 1 = 0
соответственно. Теперь сложи их, поделив на норму w, и получишь ширину полосы с точностью до множителя.
Ответы: >>782557
Аноним 28/06/16 Втр 15:56:23 782557
>>782505
В целом годная лекция, хотя и не все сходу понятно, но лучше Воронцова, лол.
Аноним 28/06/16 Втр 19:17:15 782757
>>782369
Ну вот скажи мне зачем мне все эти доказательствам криволинейных интегралов в ML
или зачем мне аффиные и банаховы пространства в ML, конкретики больше, пожалуйста. Какие темы? Не всего ж мне Ильина ж читать
Ответы: >>782902 >>782967
Аноним 28/06/16 Втр 22:05:05 782902
>>782757
Нормы без Банаха не нормы, читай всего, хуже не будет.
Ответы: >>782937
Аноним 28/06/16 Втр 23:19:08 782937
>>782902
Нет времени на все и так работаю и учусь параллельно
Ответы: >>782942 >>782943
Аноним 28/06/16 Втр 23:47:53 782942
>>782937
Ты же хочешь когда-нибудь в Silicon Valley уехать? А туда не берут без знания метрической геометрии и функционального анализа. Не осилишь - так и будешь до конца жизни в рашке энтерпрайз солюшены крудошлепить.
Аноним 28/06/16 Втр 23:51:10 782943
>>782937
За 21 день хочешь всё освоить?
Аноним 29/06/16 Срд 02:53:21 782959
ООООО ооооо О Цветы полевыыыые, ООООО оооо О В кустах как в бутылке!!
Аноним 29/06/16 Срд 04:16:47 782967
>>782757
Вот тебе краткий курс того, что требуется:
http://cs229.stanford.edu/section/cs229-linalg.pdf
http://cs229.stanford.edu/section/cs229-prob.pdf

Из матана будет достаточно того, что используется в этих выжимках — производные и интегралы.
Ответы: >>783005 >>783060 >>783062
Аноним 29/06/16 Срд 06:58:17 783005
>>782967
Ещё подумалось, глядя на это всё, что прослеживается некоторая цикличность в развитии. Сначала были простые объекты — числа. Людей на практике интересовало число. Но работать с числами — это сложно, и люди изобрели алгебру, чтобы упростить себе жизнь. Алгебра породила анализ, дифференциальное и интегральное исчесление, понятия предела. Анализ породил сложные геометрические объекты, в т.ч. в многомерном пространстве, которые уже тяжело исследовать методами анализа. Анализ слишком детален для этого. Тогда изобрели топологию и начали исследовать объекты топологическими методами, а позже (ещё более?) «мягкими» — алгебраическими. Так анализ породил алгебру второго порядка абстракции: гомологии всякие, когомологии, Tor'ы. Но когда начали исследовать эту алгебру в целом, в совокупности, вырисовался анализ этих объектов! Дифференциальная гомологическая алгебра! В книжке, которая выше цитируется, есть глава про эту тему. А потом что? Новый анализ породит ещё более абстрактную алгебру? Такое впечатление, что когда мы идём вверх по пути всё большей абстрактности и общности, анализ и алгебра чередуются друг с другом. Не знаю, насколько эта мысль нова/стара, но я её нигде не слышал.

Вообще, я бы, наверно, выделил следующие три уровня:

Алгебра первого порядка: школьная (всё, что мы знаем).
Алгебра второго порядка: линейная и общая (матрицы, линейные пространства, группы, кольца, идеалы и т.п. множества).
Алгебра третьего порядка: гомологии, когомологии и т.п.

Алгебра n+1'ого порядка имеет объекты n'ого порядка как свои элементарные.
Ответы: >>783093
Аноним 29/06/16 Срд 09:01:00 783060
>>782967
>, что используется в этих выжимках — производные и интегралы.
Производные я и так сейчас умею брать, все таки что-то помню с курса примата, интегралы вручную - ну хуй знает, всегда с ними были проблемы, всегда в вольфрамах высчитывал.
Аноним 29/06/16 Срд 09:02:38 783062
>>782967
Пролистал алгебру, так это все вспомнить - максимум день, ну в плане перемножения матриц и работы с векторами.
Аноним 29/06/16 Срд 10:27:05 783093
14671960259930.webm webm file (4727Кб, 1280x720, 00:01:14)
>>783005
Только чем дальше в лес, тем толще абстракции и тем меньше людей в них могут. Как итог, в IUTeich Мотидзуки могут 4 человека из 7 млрд. Вот и приехали.
Аноним 29/06/16 Срд 14:01:59 783255
14672089192690.png (391Кб, 1153x661)
14672089192771.png (189Кб, 844x605)
У меня вот какой вопрос. Как известно, существует немало попыток использовать для сверхбыстрых вычислений специализированные оптоэлектронные решения, заточенные под конкретный алгоритм. Есть подобные варианты нейросетей, нечетких моделей пикрелейтед и т.д. А есть ли подобные реализации генетических алгоритмов? Что-то гуглю и пока ничего интересного не нагуглил.
Ответы: >>783266 >>783801 >>783814
Аноним 29/06/16 Срд 14:15:35 783266
>>783255
https://cloudplatform.googleblog.com/2016/05/Google-supercharges-machine-learning-tasks-with-custom-chip.html
Ответы: >>783277
Аноним 29/06/16 Срд 14:24:41 783277
>>783266
>ASIC
>tailored for TensorFlow.
Это ж ПЛИС, да и в TF разве есть генетические алгоритмы?
Ответы: >>783514
Аноним 29/06/16 Срд 14:29:21 783281
>>776147 (OP)
Кто-нибудь тут пытается торговать на бирже?
Ответы: >>783507
Аноним 29/06/16 Срд 17:48:20 783507
>>783281
Ты случайно не в Израиле живешь?
Ответы: >>783520
Аноним 29/06/16 Срд 17:54:22 783514
>>783277
>Это ж ПЛИС
Разницу между ASIC и FPGA хотя бы выучи, диплернер хренов.
Аноним 29/06/16 Срд 17:55:21 783520
>>783507
В Дс живу. Только ради этого всю эту сраку учу.
Ответы: >>783572
Аноним 29/06/16 Срд 18:33:42 783572
>>783520
Излагай, чего достиг.
Ответы: >>784503
Аноним 29/06/16 Срд 20:39:43 783801
>>783255
Как ты себе это представляешь?
В известных мне оптических нейроночках всё происходит на гологораммах. Для ГА же нужны элементы случайности, ещё требуется порождать новые объекты с новыми свойствами. При желании можно достичь первого, покрутив источник излучения. Второе же достичь достаточно трудно, на мой взгляд.
Ответы: >>785852
Аноним 29/06/16 Срд 20:46:08 783814
>>783255
Хотя эволюционные методы используются для получения оптических элементов.
https://www.osapublishing.org/oe/abstract.cfm?uri=oe-14-21-9909
Аноним 29/06/16 Срд 21:14:30 783847
Бля, вы такие крутые, т.е. если я умею работать с матрицами, брать производные и прочее - то уже могу заняться этим всем. Доказательства ведь не обязательно знать? А то помню так затрахался в институте их сдавать, зубрил. ибо не понимал.
Ответы: >>784681
Аноним 30/06/16 Чтв 04:12:44 783933
https://github.com/HuwCampbell/grenade
GRANATA
Ответы: >>783937
Аноним 30/06/16 Чтв 04:28:47 783937
>>783933
> Haskell
Нет, спасибо.
Аноним 30/06/16 Чтв 11:16:25 784198
Сложно написать прогу которая по звуку морзянку расшифровывает? Что для этого нужно выучить?
Ответы: >>784223
Аноним 30/06/16 Чтв 11:56:02 784223
>>784198
http://www.inference.phy.cam.ac.uk/itprnn/book.pdf
Ответы: >>784231
Аноним 30/06/16 Чтв 12:04:53 784231
>>784223
Там много слишком всего.
Ответы: >>784252
Аноним 30/06/16 Чтв 12:11:17 784252
>>784231
только первые 250 страниц жэ
Ответы: >>784263 >>784282
Аноним 30/06/16 Чтв 12:19:51 784263
>>784252
Начал с первой главы. Там начиная со второй страницы всё в формулах. Я ничего не понимаю. Что проще есть?
Ответы: >>784266
Аноним 30/06/16 Чтв 12:21:52 784266
>>784263
ищи готовый солюшен
Ответы: >>784267
Аноним 30/06/16 Чтв 12:25:00 784267
>>784266
Нет нужно самому. Одного какого-нибудь алгоритма достаточно?
Ответы: >>784302 >>784326
Аноним 30/06/16 Чтв 12:43:03 784282
>>784252
>только первые 250 страниц жэ
нейроночки начинаются только с 460
Ответы: >>784285
Аноним 30/06/16 Чтв 12:43:51 784285
>>784282
Так они же не надо.
Ответы: >>784332
Аноним 30/06/16 Чтв 12:46:30 784288
Пара тупых вопросов по раскуриванию сути нейросетей.
1) Есть 2 искусственных нейрона: к одному подключено, например, 10 входов, к другому 2 входа. Это ведь получается, что первый нейрон гораздо легче активировать, нежели второй? Никак ли это не компенсируется/корректируется в структуре или параметрах? Если нет, то каков в этом смысл с точки зрения какого-то принятия решения или типа того? Вряд ли же будет верно то, что чем больше входов у нейрона, тем он важнее?
2) В учебниках и статьях нейросети изображают обычно так, что каждый вход подключен к каждому нейрону сети. Всегда ли это именно так делают? Можно ли вмешиваться в структуру сети, делая, например, чтобы в первый нейрон входили 1, 2, 3 входы, во второй какие-нибудь 2, 5, 6 и т.д.? Или все-таки структура должна быть однородной и веса сами скорректируют "отбор" нужных входов?
Ответы: >>784301 >>784308 >>784416
Аноним 30/06/16 Чтв 12:58:03 784301
>>784288
Начни с раскуривания сути линейной регрессии.
Ответы: >>784313
Аноним 30/06/16 Чтв 12:58:52 784302
>>784267
нейроночка
Ответы: >>784321
Аноним 30/06/16 Чтв 13:07:13 784308
>>784288
начни с вкуривания сути бейсовской логистической регрессии
Ответы: >>784313
Аноним 30/06/16 Чтв 13:10:53 784313
>>784301
>>784308
Что можно почитать для раскуривания?
Само понятие и представление о регрессии и регрессионном анализе не дают ответов на мои вопросы.
Ответы: >>784315
Аноним 30/06/16 Чтв 13:11:36 784315
>>784313
http://www.inference.phy.cam.ac.uk/itprnn/book.pdf
Ответы: >>784324
Аноним 30/06/16 Чтв 13:17:18 784321
>>784302
Да зачем? Там же наверняка всё проще.
Аноним 30/06/16 Чтв 13:20:41 784323
14672928412660.webm webm file (4204Кб, 640x360, 00:01:08)
Аноним 30/06/16 Чтв 13:22:36 784324
>>784315
Ты всем советуешь какую-то якобы умную книжку, которую сам не до конца осилил?
Ответы: >>784338
Аноним 30/06/16 Чтв 13:23:27 784326
>>784267
Тебе не ML нужен, а DSP. Достаточно тебе enveloper follower + moving average filter, далее run length encoding, а потом можно уже анализировать цифры.
Ответы: >>784329
Аноним 30/06/16 Чтв 13:27:45 784329
14672932658950.webm webm file (295Кб, 320x214, 00:00:09)
>>784326
>DSP
Что это?
Ответы: >>784331
Аноним 30/06/16 Чтв 13:28:24 784331
>>784329
digital signal processing
Ответы: >>784334
Аноним 30/06/16 Чтв 13:28:26 784332
>>784285
Для распознавания аудио сверточные нейроночки сейчас самый смак, по-другому уже никто не делает.
Ответы: >>784343
Аноним 30/06/16 Чтв 13:29:20 784334
14672933609550.png (308Кб, 1151x524)
>>784331
Мне программку на питоне надо, а тут какие-то микросхемы
Ответы: >>784336 >>784337 >>784340
Аноним 30/06/16 Чтв 13:29:49 784336
>>784334
laba.py?
Аноним 30/06/16 Чтв 13:29:55 784337
>>784334
> processing vs processor
Аноним 30/06/16 Чтв 13:30:46 784338
>>784324
Я не он, не эту конкретную книгу я прочел. Хорошая книга.
Аноним 30/06/16 Чтв 13:33:48 784340
>>784334
https://www.google.ru/search?q=python+envelope+follower https://www.google.ru/search?q=python+moving+average
https://www.google.ru/search?q=run+length+encoding
Когда добьешься этого, далее будешь распознавать буквы и пробелы между буквами и пробелы между словами.
Аноним 30/06/16 Чтв 13:38:53 784343
>>784332
Сложно же ему, пусть HMM хуярит простейшие.
Ответы: >>784369
Аноним 30/06/16 Чтв 13:41:38 784346
Здарова ебать
вы матан охуенно наверно знаете?
Аноним 30/06/16 Чтв 13:59:11 784355
>>784346
демидович под картошечку с пивком.. ммм..
Аноним 30/06/16 Чтв 14:09:48 784364
>>784346
<<Действительный анализ>> Тао под сидр.
Аноним 30/06/16 Чтв 14:11:35 784369
>>784343
Да там тоже черт ногу сломит. Если уж совсем от сохи, то просто делать DFT, сделать ручной детектор писка по частоте, потом детектор длинного/короткого сигнала, ну и таблицу забить. На коленке за день можно сварганить.
Ответы: >>784379
Аноним 30/06/16 Чтв 14:34:33 784379
>>784369
ну или так, с аналитическими сигналами ещё поиграться можно. Способов тьма, только все хотят простой метод.
Аноним 30/06/16 Чтв 14:52:03 784393
>>784346
Колмогоров, Фомин с самогонкой, бараниной и чесноком ЗАЕБИСЬ
Ответы: >>784406
Аноним 30/06/16 Чтв 15:12:29 784406
>>784393
а картофан?
Аноним 30/06/16 Чтв 15:13:27 784407
>>784346
Зорич с сыром и Шато Бардо располагает
Аноним 30/06/16 Чтв 15:26:07 784416
>>784288
Короче допетрил до ответов сам.
Но вот ко второму появилось некоторое дополнение. Если даются какие-то входы, и нужно получить выход (зависимость от входов), то в общем-то нужно все входы соединять со всеми нейронами, чтобы веса сами настроились как надо, и получились эти нужные коэффициенты регрессионной модели.
Однако в сверточных нейросетях эти входы могут все-таки разбиваться в некоторые группы, которые при этом могут и пересекаться, и эти группы в некотором роде можно называть признаками каких-то особенных деталей из входных данных. Вопрос как раз в том, когда инпуты разбиваются, а когда они полной охапкой передаются в слой сети? В чем природа этого разделения входных переменных?
Про сверточные нейросети я, правда, только обзорно читал, возможно при углублении это снова мне станет понятным, но все-таки.
Ответы: >>784446 >>785797
Аноним 30/06/16 Чтв 15:48:07 784446
>>784416
Очень хороший вопрос, но пробелма в том, что все бьются над тем какаой должна быть "правильная" архитиктура нейросетей. Поэтому то, что сейчас называется глубокие сети уже большая находка.

Алсо, посмотри записи с DeepHack, там были обсуждения архитектур нейросетей и решаемых ими задач.
Аноним 30/06/16 Чтв 16:41:04 784503
>>783572
Слил 10к на фьючерсах сбербанка.
Ответы: >>784529
Аноним 30/06/16 Чтв 17:17:25 784529
>>784503
> Слил 10к на фьючерсах сбербанка.
Да это плевать. Давай лучше методику обсудим.

Почему этот инструмент используешь? Как минимизируешь риски? Какая используется модель? Торгуешь в (полу)автоматическом режиме? На какой срок строишь прогнозы? Как проверяешь прогнозы? Через какого трейдера работаешь?
Ответы: >>784540
Аноним 30/06/16 Чтв 17:29:21 784540
>>784529
Трейдер финам, но это вообще фигня, не я выбирал, пришел батя, сказал вот счет, ты ж сына программист, сиди торгуй.
Торговал в полностью автоматическом режиме, прогнозы не дальше дня.
Пробовал арбитраж. То есть берешь, грубо говоря, нефть и акцию лукойла, одно покупаешь, другое продаешь, в теории в среднем должен быть небольшой +. Как что от чего зависит изучем с помощью ml. Модель была простая линейная, всякая умная фигня типа нейронных сетей работала хуже.

Но я изначально неправильно тестировал, не учел комиссию. Опять же писал свой тестировщик. Когда наносался хуев пошел дальше учить теорию ml+питон, который для этих дел оказался лучше матлаба.
Ответы: >>784549
Аноним 30/06/16 Чтв 17:33:25 784549
>>784540
> Трейдер
Брокер же. Трейдер это я.
Ответы: >>784887
Аноним 30/06/16 Чтв 17:35:02 784550
Аноны, у меня появилась безумная идея симулировать поведение живых существ в игре с помощью нейронной сети.
Но потом вспомнил, что нейронные сети всего-лишь аппроксиматор функции.
Значит ли это, что мне надо использовать несколько нейронных сетей, направленных на обучение в каком-то направлении?
Например, с помощью одной сети паук учится нападать на человека, с помощью другой бегать, с третьей оценивать ситуацию, с четвертой разрабатывать тактику?
Или как это работает? Писал перцептроны до этого.
Ответы: >>784554 >>784556
Аноним 30/06/16 Чтв 17:38:02 784554
>>784550
Обучение с подкреплением.
Ответы: >>784557
Аноним 30/06/16 Чтв 17:40:35 784556
>>784550
В мозге по сути так и есть, выделяют различные области коры по из назначению, например: зрительная, моторная. За какую-то логику отвечает префронтальная кора.
Аноним 30/06/16 Чтв 17:41:22 784557
>>784554
Использовать этот метод, хорошо.
А можно ли сделать обучение непрерывным? Или одна сеть должна научиться выполнять 1 тип задачи?
Можно ли написать зависимости между сетями, чтобы результаты обучения 1 сети действовали на другую?
Можно ли сделать так, чтобы сети эти зависимости нашли самостоятельно или не стоит?
Ответы: >>784569 >>784574
Аноним 30/06/16 Чтв 17:51:16 784569
>>784557
Да, по сути так и происходит у животных, правда эти твои "зависимости" называются гормонами.
Аноним 30/06/16 Чтв 17:53:47 784574
>>784557
> Писал перцептроны до этого.
Странные вопросы. Иди ботай мат. часть и возвращайся.
Ответы: >>784584
Аноним 30/06/16 Чтв 17:57:28 784584
>>784574
Кое-чего я так и не понял, можно ли его чему-нибудь новому научить?
Этот как с функцией XOR, только есть одна странность, у меня число методов, которые можно использовать неизвестны.
Есть ли какой-нибудь расширяющийся перцептрон, например? Или как это еще можно решить, кроме добавления слоев?
Ответы: >>784617
Аноним 30/06/16 Чтв 18:25:14 784617
14673111146470.jpg (151Кб, 1920x1080)
>>784584
> Кое-чего я так и не понял, можно ли его чему-нибудь новому научить?
Не знаю, как с нейроночками, но людей можно даже обучить видеть с помощью языка и камеры:
https://www.youtube.com/watch?v=n1ViNeWhC24[РАСКРЫТЬ]

Нейроночкам можно скармливать данные по мере их поступления, т.н. online learning. Может быть если данные кардинально изменятся, то со временем нейроночка полностью перестроится под новые данные аля "видеть языком".
Проблема в том, что обычно архитектуру сети подбирают под задачу и какой-то универсальной работающей хорошо на всех типах задач, как я понимаю, до сих пор не придумали.
Ответы: >>784656
Аноним 30/06/16 Чтв 18:49:13 784656
>>784617
Да я уже почти со всем определился.
сети, сеть на ходьбу, вторую на оптимальный путь, третью на атаку, четвертый на анализ боевой ситуации убежать, какую атаку использовать
И сеть над ними, которая будет учиться эффективно все это использовать.
Но тут уже настигают проблемы, так как локации могут быть разными.
В одной, например, может быть множество вертикальных объектов, а в другой надо быстрее бегать.
Как боту разделять признаки, когда и какую стратегию лучше использовать? Ведь признаков может быть бесчисленное множество и выделять их можно до бесконечности.
А вот проклятие размерности не даст мне ничего подобного, а использовать огромное количество ресурсов на обычного моба - глупо.
Ответы: >>784664
Аноним 30/06/16 Чтв 18:53:02 784661
>>783876
У нас был такой вуз, что запускают по 5 человек в аудиторию на 4 препода, которые смотрят за тобой. при шуршании малейшем народ выгоняли пачками - охуенно спишешь да?
Ответы: >>784663
Аноним 30/06/16 Чтв 18:53:22 784662
>>783876
Да и на вопрос по сути не ответил ты.
Аноним 30/06/16 Чтв 18:53:50 784663
>>784661
> при шуршании малейшем народ выгоняли пачками - охуенно спишешь да?
Надо было списывать с памяти.
Ответы: >>784666
Аноним 30/06/16 Чтв 18:54:38 784664
>>784656
Ой я дебил, разгадка то кроется в сети, которая настроена на оптимальный путь.
Именно все множество методов из нее и будет определять множество стратегий.
И чем больше будет в ней нейронов, тем больше и в остальной сети будет методов.
Эх, не в этот раз я столкнусь с проклятием размерности, не в этот.
Аноним 30/06/16 Чтв 18:55:47 784666
>>784663
Зубрить это и есть списывать с памяти, проблемы? Вспоминаешь листок тетрадки фотографически и хуяришь
Короче чо ты доебался, вот чо ты доебался?
Ответы: >>784705
Аноним 30/06/16 Чтв 19:09:49 784681
>>783847
конечно начинай, няша
будет интересно
Аноним 30/06/16 Чтв 19:26:03 784705
>>784666
Расслабься, это всего лишь шутка была.
Что-то на уровне:
- как вспомнить определение теоремы во время экзамена?
- вспоминаешь доказательство и выводишь из него определение

Хотя это уже не совсем шутка.
Аноним 30/06/16 Чтв 23:01:01 784887
>>784549
> Брокер же. Трейдер это я.
Опечатался.

Оцениваешь VaR'ы всякие? Пробовал интегрировать уравнение Блэка-Шоулса?

> Как что от чего зависит изучем с помощью ml.
Это корреляционные коэффицинеты считать что ли?

> Модель была простая линейная
Линейная регрессия? Что в фичах? Какая регуляризация? Какой функционал качества? Чем оптимизируешь?

> нейронных сетей работала хуже
Не удивительно.

> ml+питон ... оказался лучше матлаба
Сейчас питно де факто стандарт научных и околонаучных вычилений. Обрати внимание на pandas, если ещё не работал с ним.
Аноним 01/07/16 Птн 04:54:48 784951
Кто-нить работал с СММ(HMM) ?
Есть пара непонятных моментов с выбором начальных данных и при переходе от дискретного случая к непрерывному.
Ответы: >>785123
Аноним 01/07/16 Птн 10:33:45 785123
>>784951
Есть. Задавай свои ответы.
Ответы: >>785200
Аноним 01/07/16 Птн 12:05:32 785200
>>785123
Сап.
Наблюдаемые данные - n-мерные вектора (15-20 мерные);
Координаты векторов, вещественные числа меняются в пределах [-1:1] (В теории, на практике скорее всего разброс может быть меньше);
Тут данные имеют непрерывную природу, и не получается использовать дискретное распределение.
Какой закон распределения использовать для наблюдаемых данных?

Если есть желание помочь, могу скинуть фейко мыло.
Ответы: >>785210
Аноним 01/07/16 Птн 12:12:51 785210
>>785200
Непрерывное распределение, очевидно. А скрытые переменные?
Пиши тут лучше, я фейкомыльце редко проверяю.
Ответы: >>785218
Аноним 01/07/16 Птн 12:33:08 785218
14673763888330.jpg (344Кб, 1511x2278)
14673763888401.jpg (280Кб, 1617x2279)
>>785210
Суть вопроса матрица вероятностей для наблюдаемых значений - тут и предлагают использовать непрерывное распределение. Брать n-мерный интеграл от плотности распределения ( в данном случае за плотность взял Гауссову функцию распределения)?

(Приложил картиночки, там вроде в второй картинке ошибка, как раз без n-мерного интеграла?)
Ответы: >>785219 >>785226
Аноним 01/07/16 Птн 12:33:47 785219
>>785218
Основываюсь да данной работе, так взяты 3-мерные вектора (http://linkstore.ru/articles/pestov2013.pdf)
Аноним 01/07/16 Птн 12:39:00 785226
>>785218
Для Гауссовской функции интеграл можно взять аналитически. Для сложных распределений можно использовать методы Монте-Карло (importance sampling, rejection sampling, MCMC) или использовать вариационные аппроксимации.

Ответы: >>785230
Аноним 01/07/16 Птн 12:40:33 785230
>>785226
А как скажем так "правильно" выбрать распределение?
Ответы: >>785232
Аноним 01/07/16 Птн 12:42:24 785232
>>785230
Зависит от задачи. Часто бывает так, что информации о распределении шумов нихуя нет, тогда Гаусс берётся по дефолту.
Ответы: >>785233
Аноним 01/07/16 Птн 12:42:58 785233
>>785232
Значит для начала Гаусса взять норм?
Ответы: >>785236
Аноним 01/07/16 Птн 12:45:15 785236
>>785233
Гаусс (экспоненциальное семейство вообще) хорош тем, что там обычно хорошие, трактуемые распределения, т.е. вывод прямой возможен.
Ответы: >>785254
Аноним 01/07/16 Птн 13:19:59 785254
14673791992050.png (120Кб, 666x587)
>>785236
Вот тут при расчете B (матрица вероятностей для наблюдаемых значений) - мы просто берем Гауссову функцию распределения?
Или нужна именно функция распределения? (то бишь интегрировать Гауссову функцию?)
Ответы: >>785257 >>788123
Аноним 01/07/16 Птн 13:23:58 785257
>>785254
Функция.
Ответы: >>785262
Аноним 01/07/16 Птн 13:29:28 785262
14673797684010.png (22Кб, 1119x105)
>>785257
Интегрировать вот эту функцию?
Ответы: >>785275
Аноним 01/07/16 Птн 13:46:12 785275
>>785262
Её интеграл единица. Что ты хочешь?
Ответы: >>785277
Аноним 01/07/16 Птн 13:47:03 785277
>>785275
а как B_j(x) считать тогда?
Аноним 01/07/16 Птн 13:49:32 785281
прост плотность бери же
Ответы: >>785296
Аноним 01/07/16 Птн 14:22:45 785296
>>785281
Спасибо, вроде разобрался.
А то этот непрерывный случай сложно давался.
тервер только дискретный знаю.
Ответы: >>785302
Аноним 01/07/16 Птн 14:30:20 785302
14673834211500.jpg (71Кб, 500x627)
>>785296
Ответы: >>788123
Аноним 01/07/16 Птн 20:37:00 785571
Можно ли обойтись без смещений? Большую ли они роль играют?
Ответы: >>785597
Аноним 01/07/16 Птн 21:41:26 785597
>>785571
Ты про смещения в нейронах?
Если да, то можно и без них. В некоторых задачах, говорят, они могут дать намного круче результаты, нежели без них (сам не пробовал).
По сути, смещение поднастраивает активационную функцию, сдвигая ее график влево или вправо (т.е. соответственно "облегчая" активацию, или наоборот, делая так, чтобы требовалось еще большие значения на входах нейрона).
Ответы: >>785599
Аноним 01/07/16 Птн 21:43:35 785599
>>785597
>Ты про смещения в нейронах?
Да. Спасибо. Надо все же потестировать самому. Чуток в питоне переделаю готовый пример да гляну че да как.
Аноним 02/07/16 Суб 06:37:06 785710
>>776147 (OP)
Аноны, я пока читаю свою книжечку, которую вы мне дали и появились пара вопросов:
В книге говорится о том, как изменять веса
и дана эта формула
>Wik = -(yk-tk)*xi
yk - то, что нейрон сделал в этот момент
tk - то, что должен был сделать
Зачем мы ставим - перед ними?
Думаю, разгадка в этой строчке, которую я не могу правильно перевести
>That element of the input could be negative, which would switch the values over; so if we wanted the neuron to fire we’d need to make the value of the weight negative as well.
Ответы: >>785736 >>785788
Аноним 02/07/16 Суб 07:22:11 785736
>>785710
если минус то тогда ты максимизируешь лог-вероятность вместо минимизации ошибки
разницы особой нет
Ответы: >>785746
Аноним 02/07/16 Суб 08:02:11 785746
>>785736
Не понял
Ответы: >>785748
Аноним 02/07/16 Суб 08:06:00 785748
>>785746
как твоя формула выводится в книге?
покажи нам страницы
Ответы: >>785755
Аноним 02/07/16 Суб 08:19:01 785755
14674475412010.png (84Кб, 674x491)
>>785748
Ответы: >>785774
Аноним 02/07/16 Суб 08:53:45 785774
>>785755
пиздец нихуя не понятно exex
возьми производную от кросс-этропии и получишь то же самое, только без простыни
Ответы: >>785778
Аноним 02/07/16 Суб 08:56:11 785778
>>785774
Ты думаешь, что я знаю, что такое кросс-этропия?
А как же те люди, которые говорили Иди читай книги на английском?
Ответы: >>785791
Аноним 02/07/16 Суб 09:07:56 785785
Мне иногда кажется что это тред одного шизика и он сам с собой беседует
Аноним 02/07/16 Суб 09:09:14 785788
>>785710
Я не точно уверен, но по идеи мы используем что-то типа градиентного метода минимизации функции, а сам градиент направлен в сторону наискорейшего возрастания функции. Поэтому если мы хотим вниз спускаться, то градиент надо брать со знаком минус.
Ответы: >>785792
Аноним 02/07/16 Суб 09:13:52 785791
14674508323220.png (84Кб, 1450x732)
>>785778
вот тот же момент в другой книге у бишопа
сначала выписываешь вероятность данных при заданных параметрах/весах (4.89)
потом берёшь негативный лог этой вероятности
и потом берёшь производные, получается такая же формула как у тебя (4.91)

только в твоём случае с переди минус потому что автор не брал негативный лог в шаге 4.90
Ответы: >>785796
Аноним 02/07/16 Суб 09:14:34 785792
>>785788
Я еще не знаю, что такое градиент, это только начало книги, все, о чем вы говорите будет дальше.
Ответы: >>785979
Аноним 02/07/16 Суб 09:20:49 785796
>>785791
Да зачем мне вероятности считать? Тут же просто показывают принцип, до которого я допереть не могу.
Эх, ладно, пойду к переводчикам.
Ответы: >>785807
Аноним 02/07/16 Суб 09:26:05 785797
14674515659020.gif (176Кб, 476x620)
>>784416
>Вопрос как раз в том, когда инпуты разбиваются, а когда они полной охапкой передаются в слой сети? В чем природа этого разделения входных переменных?
Я ж тута уже упоминал статью Горбаня http://kpfu.ru/portal/docs/F1732864826/02_5.PDF , в ней опять же, разбирается результат, полученный еще Колмогоровым и составляющий собственно суть нейроночек: представление одной функции многих переменных через суперпозиции частных функций от 1-2 переменных. Сие и есть ответ на твой вопрос о разбиении входов. Кроме того, нелишне разобрать теорему Стоуна-Вейерштрасса.
Ответы: >>785798
Аноним 02/07/16 Суб 09:28:00 785798
>>785797
о, вот этот дело говорит
а колмогорову правда маленькие мальчики нравились?
Аноним 02/07/16 Суб 09:37:22 785807
>>785796
Черт, ну что за двачах за аутисты то сидят, пиздец?
В тексте написано, что мы показываем векторы нейронной сети и один нейрон неправильный (его выход не совпадает с целью). Это веса m, которые соединены с нейроном, каждый из которых весов - это входная нода. Если мы назовем нейрон, который неправильный, как K, тогда веса, которые нас интересуют - это Wik, где i - промежуток от 1 до m. Так мы знаем, какой вес меняется, но нам необходимо решить, как изменить значение этого веса.
Первое, что нам необходимо узнать - это является ли значение веса слишком большим или слишком маленьким. Это типа очевидно: веса больше, если нейрон активируется когда не надо и меньше, если не активируется когда надо.
Так мы посчитаем y(k)-t(k) - это является разницей между тем, что нейрон получил и целью. Это возможная функция ошибки.
Если она негативна, когда нейрон должен активироваться и не сделал это, то мы делаем веса больше и наоборот если она позитивна

И дальше я нихуя не могу понять, написано Держитесь, поехали дальше.
Ответы: >>785855
Аноним 02/07/16 Суб 10:16:54 785852
14674546141590.png (82Кб, 836x614)
14674546141611.png (280Кб, 1332x632)
>>783801
>Как ты себе это представляешь?
Я подумал, что вряд ли идея запилить GA на оптронике принадлежит мне и скорее всего кто-то уже пытался, хотя бы на бумаге. И таки я нашел, некие жиды разрабатывали такое. Вообще, странно что эта тема не развивается, нейроночки на оптике должны быть быстрее и дешевле чем на электронике.
Аноним 02/07/16 Суб 10:18:31 785855
>>785807
Так, а дальше написано
>Этот входной элемент может быть отрицательным, что поменяло бы значение местами. Так если мы хотим чтобы нейрон активировался нам необходимо сделать значения весов негативными также. Чтобы обойти эту проблему мы умножаем их вместе, чтобы посмотреть как мы должни изменить веса. Wik = -(yk-tk)*xi, и новое значение веса это старое значение плюс это значение.
И тут я потерял логику, старое занчение чего плюс новое значение чего? Весов?
Ответы: >>785858 >>785866
Аноним 02/07/16 Суб 10:21:02 785858
>>785855
А может быть ну его нафиг? Зачем тебе эти нейроночки?
Ответы: >>785860
Аноним 02/07/16 Суб 10:23:49 785860
>>785858
Хочу программирование освоить, питон знаю на лоу уровне, теперь нейроночки хочу.
Аноним 02/07/16 Суб 10:32:07 785866
>>785855
Мб если yk < tk, т.е. нейрон дал слабый сигнал, хотя должен был быть сильнее, при этом (yk - tk) получается отрицательно, но нам нужно прибавить весу, чтобы в следующий раз сигнал был как надо, поэтому мы инвертируем эту разность, получаем -(yk-tk).
А если yk > tk, т.е. нейрон дал больше, чем надо, тогда (yk - tk) положительно, и чтобы уменьшить вес, надо снова взять эту разность с отрицательным знаком.
Ответы: >>785871
Аноним 02/07/16 Суб 10:38:28 785871
>>785866
У нас получается, что если нейрон дал слабый сигнал, то необходимо его усилить.
А если нейрон дал сильный сигнал, то надо уменьшить веса, путем вычитания значения ошибки.
Ответы: >>785875
Аноним 02/07/16 Суб 10:41:36 785875
>>785871
Но если значение входа уже отрицательно, то это поменяет значения местами, тогда, если мы хотим, чтобы нейрон активировался, нужно сделать значения весов отрицательными
Ответы: >>785882 >>785888
Аноним 02/07/16 Суб 10:48:49 785882
>>785875
И чтобы решить эту проблему мы ставим -
Но откуда в этом выражении появился X(i) - хуй знает.
i - это промежуток от одного до m
И хуй знает, что он обозначает.
Ответы: >>785886 >>785888
Аноним 02/07/16 Суб 10:52:27 785886
>>785882
Есть нейрон. От 1 до m входов. Один выход: принимает значение yk. По обратному распространению на "выход" пришло необходимое значение tk.
Мы получаем ошибку как бы для всего нейрона, это yk-tk.
И эту ошибку уже надо применить ко входам этого нейрона, которых m штук, а значение на каждом из входов x(i).
Ответы: >>785892
Аноним 02/07/16 Суб 10:54:20 785888
>>785882
>>785875
Опять же, я давал ссылку на видос, где создатель этого алгоритма поясняет его суть, в т.ч. с рисунками. Поясняет почему удобна именно квадратичная функция (потому что параболоид). Мне сказали, какой-то старый дед, давай что-то поновее.
https://www.youtube.com/watch?v=hc2Zj55j1zU[РАСКРЫТЬ]
https://www.youtube.com/watch?v=skfNlwEbqck[РАСКРЫТЬ]
Аноним 02/07/16 Суб 11:08:01 785892
>>785886
Так i - это число входов
То-есть мы берем отрицательное значение от того, как должно быть и умножаем это на прежние значения весов, где x - это значение веса, а i - индекс веса?
Ответы: >>785897 >>785902
Аноним 02/07/16 Суб 11:10:17 785897
>>785892
Точнее да, ошибку умножаем на значение каждого нейрона.
Ответы: >>785900
Аноним 02/07/16 Суб 11:11:42 785900
>>785897
нейрона*
веса, блять.
Аноним 02/07/16 Суб 11:12:44 785902
>>785892
i - это размерность входа. Xi - это вещественнозначный вектор.
Ответы: >>785904 >>785905
Аноним 02/07/16 Суб 11:16:49 785904
>>785902
Нет, I - это число входов
>When we looked at the McCulloch and Pitts neuron, the weights were labelled as wi, with the i index running over the number of inputs.
Аноним 02/07/16 Суб 11:19:33 785905
>>785902
И да, я не знаю, что значит слово "вещественнозначный", даже гугл не показывает его значение.
Ответы: >>785907
Аноним 02/07/16 Суб 11:20:39 785907
>>785905
Вектор, компоненты которого вещественные числа. Число входов равно размерности входного вектора.
Аноним 02/07/16 Суб 11:30:06 785913
Подождите, это алгоритм обратного распространения ошибки?
Ответы: >>785921
Аноним 02/07/16 Суб 11:45:50 785920
Анон, а как так получается, что:
w(i,j) ← w(i,j) − η(y(j) − t(j) ) · x(i)
То, что мы хотим найти это то, что мы ищем - выражение?
Ответы: >>785924 >>785926
Аноним 02/07/16 Суб 11:48:17 785921
14674600971370.png (37Кб, 300x269)
>>785913
Не совсем. Это годится скорее для чего-то однослойного, например перцептрона, когда слой знает о том, что получилось и о том, что нужно было получить, и таким образом R-элементы может подправить веса от входов, которые поступают с А-элементов.
Но между S и A веса не регулируются.
Аноним 02/07/16 Суб 11:50:14 785924
>>785920
Это разве не логическая ошибка?
Если я хочу узнать массу планеты.
То мне надо знать массу планеты?
Или на это w(i,j) после стрелки не обращать внимание?
Ответы: >>785929
Аноним 02/07/16 Суб 11:51:52 785926
>>785920
Программирование знаешь?
w[j] = w[j] - delta
Мы переписываем значение переменной.
Ответы: >>785927 >>785929
Аноним 02/07/16 Суб 11:52:29 785927
>>785926
Там было еще [_i_], но оно куда-то пропало.
Аноним 02/07/16 Суб 11:53:34 785929
>>785926
>>785924
А нет, это просто число весов умноженное на число нейронов, оно то нам уж известно.
Ответы: >>785932
Аноним 02/07/16 Суб 11:54:55 785932
>>785929
точнее, не умноженное.
Просто input nodes, что в данном случае аналогично весам и число нейронов.
Аноним 02/07/16 Суб 12:04:18 785938
и так, что мы имеем:

нейроночки - искусственный интеллект
алсо нейроночки - массив
следовательно монада - искусственный интеллект

нейроночки можно применять в РПГ-игрулях

биномиальное распердение вызвало брексит

колмогоров баловался попками маленьких мальчиков
Аноним 02/07/16 Суб 12:06:13 785941
>>785938
нечёткость и Сёрла забыл.
Аноним 02/07/16 Суб 12:06:51 785942
>>785938
Нечеткость для петухов
Аноним 02/07/16 Суб 12:09:32 785943
14674613722450.jpg (104Кб, 600x486)
Ответы: >>785946
Аноним 02/07/16 Суб 12:10:24 785944
Байесовский вход, это как условие if else, верно?
Типа, если вход равен чему-то, то берем вес такой-то?
Ответы: >>785948
Аноним 02/07/16 Суб 12:11:59 785946
>>785943
Перельман, как и положено шизоидам, посмотрел бы на пацана как на долбоеба и пошел дальше, а то и вовсе не посмотрел бы.
Аноним 02/07/16 Суб 12:12:19 785947
Аноны, а как тогда делают всякие нейроночки, где просто дохуя всяких переменных?
Типа той, что играла в го и обыгрывала военного летчика.
Это просто сеть, у которой хуева туча слоев?
Аноним 02/07/16 Суб 12:12:20 785948
>>785938
Вот этого >>785944 запиши ещё
Ответы: >>785949
Аноним 02/07/16 Суб 12:13:24 785949
>>785948
Да иди нахуй, я просто научиться хочу, а спрашивать мне больше не у кого.
Ответы: >>785950 >>785951
Аноним 02/07/16 Суб 12:15:58 785950
>>785949
Спрашивай сам у себя, заебал. Спрашивай у книг. Спрашивай у гугла. Спрашивай у тетрадки с ручкой.
Ответы: >>785952
Аноним 02/07/16 Суб 12:16:08 785951
>>785949
Начнем с того, где ты вообще этот термин взял - "байесовский вход"?
Ответы: >>785952
Аноним 02/07/16 Суб 12:16:45 785952
>>785950
Так я и захожу сюда в последнюю очередь.
>>785951
Ой, Байесовский вход.
Ответы: >>785958
Аноним 02/07/16 Суб 12:18:29 785953
Пиздец. Почему здесь так много аутистов с тупыми вопросами. Прошлись бы по основам ML, взяв курс хотя бы на курсере, а не лезли бы сюда с илиотскими вопросами.
Ответы: >>785957
Аноним 02/07/16 Суб 12:26:15 785957
>>785953
Брать платные курсы?
Я и прохожусь по основам ML
Ответы: >>785960
Аноним 02/07/16 Суб 12:28:52 785958
>>785952
Так где ты термин такой надыбал?
Ответы: >>785959
Аноним 02/07/16 Суб 12:31:49 785959
>>785958
По привычке прочитал Bias Input, я уже понял все.
Аноним 02/07/16 Суб 12:32:44 785960
>>785957
Если ты тот, что ботал на неделе SVM, то ты норм. Но прибегают другие аноны с абсолютно хуёвыми вопросами.
Аноним 02/07/16 Суб 12:34:42 785962
>>785938
байесовский вывод - эт тип когда приоры)))

нечёткая логика - единственное перспективное направление в мл

дискретный матан

АНОНЧИКИ, ПОСОВЕТУЙТЕ КНИЖКУ ПО ДИП ЛЕАРНИНГУ, ТОЛЬКО НА РУССКОМ БЕЗ МЕТЕМАТИКИ, РЕГИСТРАЦИИ, СМС И КРОСС-ВАЛИДЕЙШЕН. АНОНЧИКИ, А МОЖЕТ ЛИ СЕТОЧКА НАУЧИТЬСЯ ГЛУБОКОМУ БЛОУДЖОБУ? НО ВЕДЬ ЛЮДИ ТАК НЕ ОТЛИЧАЮТСЯ, СЁРЛ, СЁРЛ, СЁРЛ.КАК ПОСТУПИТЬ В ШАД, ЕСЛИ У МЕНЯ ДЕВЯТЬ КЛАССОВ ОБРАЗОВАНИЯ В ШКОЛЕ ДЛЯ ДЕБИЛОВ?
Ответы: >>785977 >>785985
Аноним 02/07/16 Суб 13:15:23 785977
>>785962
ПОСОВЕТУЙТЕ ГОДНЫХ КНИЖЕК ПО ML
@
ЧТО ТАКОЕ ГРАДИЕНТ?
Ответы: >>785978
Аноним 02/07/16 Суб 13:17:41 785978
>>785977
Понятие градиента знакомо минимум людям на 2-м курсе, ни в школьной программе, ни даже на 1-м курсе нету этого.
Ответы: >>785979
Аноним 02/07/16 Суб 13:23:53 785979
>>785978

>>785792
Сосни раз.
Ответы: >>785980
Аноним 02/07/16 Суб 13:25:37 785980
>>785979
Причем градиент вполне рассматривается в этой книге, но позже, ты же стал нести неадекватную хуйню.
Аноним 02/07/16 Суб 13:33:37 785985
>>785962
бекпроп - градиентный спуск

ГЕНЕТИЧЕСКИЕ АЛГОРИТМЫ + НЕЙРОНОЧКИ

права роботов
Ответы: >>786046 >>786091
Аноним 02/07/16 Суб 14:40:29 786046
>>785985
>ГЕНЕТИЧЕСКИЕ АЛГОРИТМЫ
Заебешься перебирать.
Ответы: >>786054
Аноним 02/07/16 Суб 14:54:32 786054
>>786046
зато как круто звучит!
Аноним 02/07/16 Суб 16:11:14 786091
>>785985
>ГЕНЕТИЧЕСКИЕ АЛГОРИТМЫ
ХЗ, но у меня они давали результат не лучше чисто случайного поиска.
Аноним 02/07/16 Суб 16:33:15 786102
Завтра ищешь в интернете книжку "Neural networks for pattern recognition". Похуй если ничего не поймешь. Затем идешь на deeplearning.net и изучаешь библиотеку theano от корки до корки. Потом зубришь, именно, сука, вызубриваешь алгоритм обратного распостранения ошибки - чтоб от зубов отскакивало. Когда напишешь свою первую нейроночку, по пути изучив бейсовское фичё селекшн, покупаешь и изучаешь видео карту, рекомендую NVIDIA GTX980. Как переделаешь нейроночку, чтобы выдавала по крайней мере 5 тысяч предсказаний в секунду, можешь идти дальше - тебя ждет увлекательный мир диплёрнинга. CNN, RNN, сверхбыстрые асинхронные машины больцмана, tensorflow. Отсос хиккующих выблядков / просто неудачников типа нечётко-питуха или сёрло-хуесосов, которые сосут хуй по жизни не заставит себя ждать и уже через пол года ты будешь получать такие суммы, что любая баба будет течь при одном упоминании твоей зарплаты.
Аноним 02/07/16 Суб 16:37:39 786105
>>786102
>Отсос хиккующих выблядков
Но ведь этим как раз хиккующие выблядки и занимаются.
Ответы: >>786255
Аноним 02/07/16 Суб 17:50:52 786140
>>786102
>рекомендую NVIDIA GTX980
Почему не 1070 или 1080?
Аноним 02/07/16 Суб 17:52:14 786141
>>786102
> через пол года ты будешь получать такие суммы, что любая баба будет течь при одном упоминании твоей зарплаты.
Это сколько? Я сейчас питоновебдевом могу получать 4800-5600 в месяц.
Ответы: >>786150
Аноним 02/07/16 Суб 18:07:33 786150
>>786141
> могу

).
Аноним 02/07/16 Суб 18:08:40 786151
>>786102
Все самое интересно вроде же выжали из сетей с нынешним уровнем производительности видеокарт. А вот что еще можно придумать если что-то помощнее появится?
Ответы: >>786153 >>786255
Аноним 02/07/16 Суб 18:11:07 786153
>>786151
Вообще хорошо бы было натравить сеточки на перевод текстов.
Аноним 02/07/16 Суб 19:20:56 786255
>>786102
> асинхронные машины больцмана
> глубокие машины больцмана
?

>>786105
Поддвачну, здесь лучше сказать про веб-макак и прочий энтерпрайзный успешноскам.

>>786151
Дальше всё более глубокая интеграция вероятностных графических моделей и RNN для большего Байесоёбства.
Аноним 02/07/16 Суб 19:44:54 786301
Завтра ищешь в интернете книжку "Neural networks for pattern recognition". Похуй если ничего не поймешь. Затем идешь на deeplearning.net и изучаешь библиотеку theano от корки до корки. Потом зубришь, именно, сука, вызубриваешь алгоритм обратного распостранения ошибки - чтоб от зубов отскакивало. Когда напишешь свою первую нейроночку, по пути изучив бейсовское фичё селекшн, покупаешь и изучаешь нормальную видеокарту, рекомендую NVIDIA GTX1080. Как переделаешь нейроночку, чтобы выдавала по крайней мере 5 тысяч предсказаний в секунду, можешь идти дальше - тебя ждет увлекательный мир диплёрнинга. CNN, RNN, сверхбыстрые глубокие машины больцмана, tensorflow. Отсос веб макак / просто неудачников типа нечётко-питуха или сёрло-хуесосов, которые сосут хуй по жизни не заставит себя ждать и уже через пол года ты будешь получать такие суммы, что любая баба будет течь при одном упоминании твоей зарплаты.

норм? добавьте ещё чего, может в окончание kaggle вместо сумм и заменить фичё селекшн
DL-варианта этой пасты ещё небыло
Ответы: >>786313 >>787968
Аноним 02/07/16 Суб 19:51:02 786313
>>786301
Подарите мне систему с видюхой такой, а то у меня нубук 2012-го года.
Ответы: >>786325
Аноним 02/07/16 Суб 19:54:32 786325
>>786313
да ну ты чо
> нубук 2012-го года.
самый смак для нейроночек
Ответы: >>786327
Аноним 02/07/16 Суб 19:55:24 786327
>>786325
как я туда видюху то запихаю?

Ответы: >>786328
Аноним 02/07/16 Суб 19:56:43 786328
>>786327
пускай торчит хуле
Аноним 03/07/16 Вск 00:03:21 786478
>>776147 (OP)
Люди, не теряйте свободного времени, тренируйте нейронные сети!
Аноним 03/07/16 Вск 05:05:00 786526
Поясните как эта хуйня генерирует тексты Егора Летова?
Ответы: >>786590 >>786991
Аноним 03/07/16 Вск 08:38:08 786590
>>786526
дмитрий маликов в треде, все в рояль!
Аноним 03/07/16 Вск 15:39:41 786991
>>786526
> генеративные модели
> семплирование
Аноним 03/07/16 Вск 17:53:39 787152
Ребята, куда подаваться на тематическую магистратуру?
Сам заканчиваю мухосранский матмех, и пока вижу только два адекватных варианта: ВШЭ и американский вуз средней руки с прицелом на аспирантуру в лиге плюща.1
Ответы: >>787195
Аноним 03/07/16 Вск 18:20:12 787195
>>787152
уса - лучший вариант, или вшэ с миграцией за бугор
Аноним 04/07/16 Пнд 17:23:06 787968
>>786301
Эта паста всех подзаебла уже.
Пусть НЕЙРОНОЧКА сама напишет какую-нибудь смешнявку.
Аноним 04/07/16 Пнд 18:51:37 788046
Я опять с тупыми вопросами
Поясните вот за это вот:
Making the OR data is easy, and then running the code requires importing it using its filename (pcn) and then calling the pcntrain function.
В чем смысл? Алсо, я наконец полностью разобрался в перцептроне и могу написать его на питоне, сейчас еще узнаю, что он не может в функции XOR и перейду к нормальным нейроночкам
Ответы: >>788050
Аноним 04/07/16 Пнд 18:54:37 788050
>>788046
Персептрон может в xor.
Ответы: >>788051
Аноним 04/07/16 Пнд 18:55:13 788051
>>788050
Однослойный вроде не может весы настроить, разве нет?
Ответы: >>788076 >>788097
Аноним 04/07/16 Пнд 19:22:01 788076
>>788051
Не может, да.
Ответы: >>788097
Аноним 04/07/16 Пнд 19:43:06 788097
14676613864530.png (23Кб, 300x197)
>>788051
>>788076
Зависит от определения
Ответы: >>788119
Аноним 04/07/16 Пнд 20:24:36 788119
>>788097
Охуеть, давайте тогда обсудим, что же считать слоями. ВОт дискач то будет. Дискач века.
Ответы: >>788127 >>788154
Аноним 04/07/16 Пнд 20:28:16 788123
>>785302
Еще один дурацкий вопрос, вот тут >>785254 сколько брать распределяющих функций Гауссовой смеси?
Ответы: >>788126
Аноним 04/07/16 Пнд 20:37:33 788126
>>788123
Особенность физической модели, model selection, или от балды, если первое ничего не говорит, а второе мутить впадлу.
Ответы: >>788241
Аноним 04/07/16 Пнд 20:41:33 788127
>>788119
S-А связи по идеи просто описывают структуру входных связей, т.е. если есть то возбуждающий или тормозящий вход, если нет - значит нет.
Обучается же слой A-R.
Ответы: >>788131
Аноним 04/07/16 Пнд 20:46:36 788131
>>788127
Один хуй два слоя же. Что ты имел в виду под
> зависит от определения
?
Ответы: >>788141
Аноним 04/07/16 Пнд 20:55:40 788141
>>788131
https://ru.wikipedia.org/wiki/Многослойный_перцептрон_Розенблатта
>Многослойный перцептрон Розенблатта — перцептрон с дополнительными слоями А — элементов, расположенными между S и R элементами.
Дополнительных слоев А нету - значит однослойный.
Ответы: >>788144
Аноним 04/07/16 Пнд 20:58:22 788144
>>788141
Ну и безобразие, мы как-то всегда их считали.
Аноним 04/07/16 Пнд 21:35:43 788154
>>788119
Просто прочти на русской вики по поводу задачи XOR. Не может в XOR некий "однослойный персептрон", который, внезапно, является линейным классификатором, и был придуман много позже собственно персептрона (благо автор персептрона не был таким дебилом, чтобы взять линейный классификатор и назвать его йоба-названием).
Ответы: >>788322
Аноним 04/07/16 Пнд 22:21:53 788165
Аноны, спасибо большое, что ведёте данный тред! Почерпнул для себя кучу полезной инфы по поводу обучения ML, теперь в ближайшие полгода буду ебашить матан изо всех сил.
Ответы: >>788168
Аноним 04/07/16 Пнд 22:27:32 788168
>>788165
Охуеть, ну хоть кому-то.
Ответы: >>788254
Аноним 05/07/16 Втр 02:13:16 788241
>>788126
Число распредлений в смеси настраеваемый гиперпараметр, но есть непараметрические методы, где требование задавать число распределений обходится.
Аноним 05/07/16 Втр 02:39:19 788254
>>788168
Всмысле "кому-то". Всем бля. Ему, мне, тебе, Петру I. Всем!
Ответы: >>788429
Аноним 05/07/16 Втр 05:57:12 788322
>>788154
То, что я сейчас знаю в качестве персептрона - это весы + сумматор и пороговый классификатор.
Ответы: >>788350
Аноним 05/07/16 Втр 06:39:14 788339
14677007547040.jpg (62Кб, 900x500)
есть ли у нейроночек похоть?
Аноним 05/07/16 Втр 06:42:15 788340
14677009355380.jpg (140Кб, 634x627)
и вообще со скольки слоёв персептрон начинает осознавать свой gender identity?
Аноним 05/07/16 Втр 06:59:53 788350
>>788322
>весы + сумматор и пороговый классификатор
Это нейрон, не?
Перцептрон, когнитрон, неокогнитрон состоят из множества нейронов.
Ответы: >>788403
Аноним 05/07/16 Втр 08:54:24 788403
>>788350
Написано, что персептрон, на самом деле не важно, я наконец понял, как и зачем нужны матрицы и массивы.
Аноним 05/07/16 Втр 09:38:06 788429
>>788254
Мы же не одни здесь!
Аноним 05/07/16 Втр 10:10:57 788440
Аноны, а расскажите как делается поиск пути на нейроночках?
Ответы: >>788451 >>789424
Аноним 05/07/16 Втр 10:28:38 788451
14677145184360.png (297Кб, 600x512)
>>788440
> поиск пути на нейроночках
Ответы: >>788455 >>789426
Аноним 05/07/16 Втр 10:33:06 788455
>>788451
Наверное научить персонажа идти из пункта А в пункт Б с помощью нейроночки.
Ответы: >>788458 >>789426
Аноним 05/07/16 Втр 10:40:20 788458
>>788455
Дурачок. В играх AI строит маршрут совсем по другому. Что-то вроде жадных алгоритмов обхода препятствий. Катись в /gd/
Ответы: >>788474 >>789426
Аноним 05/07/16 Втр 11:06:56 788474
>>788458
Научись читать и понимать прочитанное сначала, потом посылай других куда-либо. Это во-первых.

Во-вторых, если он действительно хочет зафигачить так, чтобы АI сам учился искать пути именно с помощью нейроночки, то почему бы и нет?
Аноним 05/07/16 Втр 11:16:56 788480
Про лабиринты там тоже есть.
https://youtu.be/mF5-tr7qAF4[РАСКРЫТЬ]
https://youtu.be/6bOMf9zr7N8[РАСКРЫТЬ]
Аноним 05/07/16 Втр 13:05:29 788562
Аноны, а расскажите как делается FizzBuzz на нейроночках?
Ответы: >>788577
Аноним 05/07/16 Втр 13:13:57 788577
>>788562
http://joelgrus.com/2016/05/23/fizz-buzz-in-tensorflow/
Аноним 05/07/16 Втр 13:16:50 788584
Правильно ли я понимаю, что при обучении батчами мы вычисляем среднюю dW(где Wij=Wij+dWij) по всей выборке батча. Т.е. вычислений по-сути будет чуть больше из-за промежуточного сохранения всех dW которые мы дели в конце на размер батча, только обновление весов будет один раз за батч?
Ответы: >>788585 >>789069 >>789137
Аноним 05/07/16 Втр 13:17:31 788585
>>788584
>по сути
Аноним 05/07/16 Втр 15:06:23 788709
Аноны, поясните мне за Теорему сходимости Перцептрона но не так, будто вы объясняете умному человеку, а так, будто работаете с дауном
В частности, что обозначает это вот неравенство?
tγ ≤ ||w(t−1)|| ≤ √t
Аноним 05/07/16 Втр 15:55:35 788748
>>788709
на шаге номер t:
tγ <= длина вектора w(t-1) <= √t
Аноним 05/07/16 Втр 16:50:12 788799
>>788709
Так, вообще, ||w(t-1)|| - это разве не значения весов на прошлом шаге?
А что тогда ty? t - насколько я понял, количество шагов обновлений весов.
А y - наименьшее расстояние между гиперплоскостями или просто прямыми линиями.
То-есть доказывается, что количество шагов умноженное на минимальное расстояние между линиями меньше или равно весам на прошлой итерации и значения весов на прошлом шаге меньше или равны корню из количества шагов обновлений весов?
Что за бред?
Ответы: >>788839
Аноним 05/07/16 Втр 17:16:08 788839
>>788799
ты нашол ошибку в долазательстве персептрона?
Ответы: >>788857
Аноним 05/07/16 Втр 17:40:05 788857
>>788839
Я не думаю, что все правильно понял, я же даун.
Ответы: >>788863
Аноним 05/07/16 Втр 17:43:37 788863
>>788857
Я кстати застрял на части в реализации кода, Питона знаю хуево, это мне отвлечься от книги на немного дней или изучать Python параллельно, дабы я мог все примеры выполнять? Это задержит примерно на неделю.
Аноним 05/07/16 Втр 17:48:03 788871
>>788709
Откуда ты вообще взял это неравенство? Скинь полностью со всеми пояснениями.
Ответы: >>788888
Аноним 05/07/16 Втр 18:07:29 788888
14677420498830.png (135Кб, 592x1216)
>>788871
Надеюсь текст различим
Ответы: >>788902 >>788972
Аноним 05/07/16 Втр 18:17:22 788902
14677426425730.jpg (201Кб, 500x617)
>>788888
Лучше бы начал с чего-нибудь попроще, раз ты даже питон толком не знаешь.
Ответы: >>788915
Аноним 05/07/16 Втр 18:21:36 788915
>>788902
Я параллельно буду ебашить, сначала 10 страниц питона, потом 10 страниц отсюда.
Аноним 05/07/16 Втр 18:55:52 788972
>>788888
Там конечный смысл не в сравнении веса с какими-то числами, а в том, что ty <= sqrt(t), т.е. t <= 1/y^2.
Вернись в начало параграфа, там как раз написано, что количество итераций ограниченно этим самым числом.
Ответы: >>788981
Аноним 05/07/16 Втр 19:02:29 788981
>>788972
И в чем общий смысл кроме доказательства сравнения сходимости?
Ответы: >>788985
Аноним 05/07/16 Втр 19:06:03 788985
>>788981
В том, что оно сойдётся на линейно разделимом датасете.
Ответы: >>788989
Аноним 05/07/16 Втр 19:10:54 788989
>>788985
Готов к тупому вопросу?
А что с чем сойдется?
Ответы: >>788993 >>789000
Аноним 05/07/16 Втр 19:12:00 788993
>>788989
И теорема состоит в том, что число итераций ограничено 1/y^2?
Ответы: >>789000
Аноним 05/07/16 Втр 19:15:09 789000
>>788989
Перцептрон может обучиться за конечное число шагов, т.е. за конечный промежуток времени.
>>788993
Теорема состоит в том, чтобы показать, что это самое число шагов ограничено каким-то конкретным числом, а не бесконечностью или неопределенностью какой-нибудь.

Пока матан на первом курсе универа не пройдешь - лучше не лезь во все эти доказательства.
Ответы: >>789009
Аноним 05/07/16 Втр 19:17:32 789009
>>789000
>что это самое число шагов ограничено каким-то конкретным числом
Да это я понял.
Нет, не понял конечное число из 1/y^2 - это какое?
Ответы: >>789019 >>789063
Аноним 05/07/16 Втр 19:28:10 789019
>>789009
Гамма - это не просто расстояние между гиперплоскостями, а это расстояние между классами (margin гугли, об этом упоминалось в твоей книге), которые перцептрон должен разделять.
Понятно, что если это расстояние 0 - то перцептрон будет обучаться бесконечно, и так и не сможет различать классы в пространстве, потому что между ними нет границы.
Ну и дальше сам додумывай.
Ответы: >>789066
Аноним 05/07/16 Втр 19:29:40 789021
>>788709
Может посоветуете школьнику самые основы методов оптимизации? Какой-нибудь лайтовые лекции или конспекты. У самого пусто.
Ответы: >>789024 >>789025
Аноним 05/07/16 Втр 19:31:08 789024
>>789021
Сходить в универ.
Ответы: >>789027
Аноним 05/07/16 Втр 19:32:38 789025
>>789021
Что-нибудь по выч.мату почитай.
У обо/sci/шей было что-то такое.
Аноним 05/07/16 Втр 19:33:39 789027
>>789024
Серьёздно. Кун(тян?) уже неделю заёбывает тупыми вопросами, но ему хватает упорства продолжать.
Ответы: >>789032
Аноним 05/07/16 Втр 19:37:45 789032
>>789027
Хуй знает, я ничего отдельного не читал, но нарыл вот такую штуку:
http://rutracker.org/forum/viewtopic.php?t=4650397

На днях тоже полистаю.
Ответы: >>789040
Аноним 05/07/16 Втр 19:41:28 789040
>>789032
> Первое издание - 1986 г.
Вангую. Устарело как содержание, так и методология.

Вот что нагуглил. Парвая лекция должна составить общее представление.
http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%BE%D0%BC%D0%BE

Вот эта годная. Боюсь, что малыш не потянет.
http://stanford.edu/~boyd/cvxbook/
Аноним 05/07/16 Втр 19:59:26 789063
>>789009
А может объяснения и не надо понимать? Ну запомнил, что число итераций ограничено и все? Или это выйдет мне сильно боком потом?
По сути, я понял, что мне надо понять неравенство Коши-Буняковского.
Ответы: >>789066
Аноним 05/07/16 Втр 20:01:39 789066
>>789063
>>789019

>мне надо понять неравенство Коши-Буняковского.
Пиздец, ты не там ищешь "глубинный" смысл.
Ответы: >>789073
Аноним 05/07/16 Втр 20:04:02 789069
>>788584
бамп вопрос
Аноним 05/07/16 Втр 20:05:47 789073
>>789066
Но ведь оно доказывает, что весы через некоторое количество обновлений = > ty
Иначе я не могу понять, как из неравенства получается так, что число деленное на другое в квадрате будет равно чему-то, а не стремиться к бесконечности, например.
Ответы: >>789075
Аноним 05/07/16 Втр 20:10:22 789075
>>789073
>число деленное на другое в квадрате будет равно чему-то, а не стремиться к бесконечности
С чего бы это?
Охуенная у тебя каша в голове. Гугли пределы и сходимость.

А лучше в универ сходи, тебе там все по-порядку разложат.
Ответы: >>789079 >>789091
Аноним 05/07/16 Втр 20:13:21 789077
ML тред. Вышка нужна.
Аноним 05/07/16 Втр 20:14:12 789079
>>789075
Я на 2 курс шараги перехожу.
Аноним 05/07/16 Втр 20:19:34 789082
На русском то есть нормальные книги для новичка?
Ответы: >>789084 >>789140
Аноним 05/07/16 Втр 20:20:03 789084
>>789082
Хаха, нет, иди английский учи.
Ответы: >>789086
Аноним 05/07/16 Втр 20:20:47 789086
>>789084
Да могу и на английском читать, но придется напрягаться.
Аноним 05/07/16 Втр 20:25:15 789091
>>789075
А, пределы я знаю.
Нас в шараге не учат тому, что такое пределы, нас учили их считать.
Ответы: >>789097
Аноним 05/07/16 Втр 20:28:28 789097
>>789091
Как нам препод говорил, в пту учат ремесленников, в универе инженеров. Учишься ремесленником - значит твоя задача не думать, а делать по технологии, оттачивать мастерство. Учишься на инженера - нужно разбираться в куче различных областей, иногда даже напрямую не связанных с основным направлением.
Ответы: >>789098 >>789102
Аноним 05/07/16 Втр 20:29:50 789098
>>789097
Но у меня илитная шарага, МГИМО, прикладная информатика, лол, самый глупый выбор в жизни.
Аноним 05/07/16 Втр 20:31:53 789102
>>789097
> Как нам препод говорил
Открою секрет - каста преподов - это хуже червей-пидоров, проткнутых и опущеных.
В универчик идут работать преподами самые днища, которые никуда больше приткнуться не могут. Зато там они могут читать 1 час 45 минут хуиту с книжки и требовать ее записывать.

Ну ты понел.
Ответы: >>789108 >>789110
Аноним 05/07/16 Втр 20:36:05 789108
>>789102
Ага, и к ним посылают новоприбывших за знаниями, которые необходимы в ML.

На зоне тоже к петухам сразу будешь посылать?
Аноним 05/07/16 Втр 20:37:01 789110
>>789102
Довольно грубое обобщение.
В адекватном универе - адекватные преподы, я так считаю.
Ответы: >>789112
Аноним 05/07/16 Втр 20:37:51 789112
>>789110
Ага, на зарплату в 13 тысяч.
Когда плата за год - 75.
У нас не Япония, дабы профи работали.
Ответы: >>789115 >>789118
Аноним 05/07/16 Втр 20:39:38 789115
>>789112
Публикации/конференции/патенты ты в зп тоже не считаешь? В хорошей лабе хорошие зарплаты.
Ответы: >>789119
Аноним 05/07/16 Втр 20:40:35 789118
>>789112
Так и у них у многих еще какие-то основные или же наоборот второстепенные работы есть. У кого-то вообще собственные фирмы есть, связанные с тем направлением, на которое они учат. По крайней мере у нас так.
Аноним 05/07/16 Втр 20:40:47 789119
>>789115
Лол, а шо, за патенты платят?
А публикации - это уровня "я написал книжку, кто из студентов не купит - будет иметь проблемы на экзамене?".
Ответы: >>789142
Аноним 05/07/16 Втр 20:47:28 789129
То-есть при каком-то значении 1/y^2
t просто перестает существовать?
Ответы: >>789136 >>789150
Аноним 05/07/16 Втр 20:52:37 789136
>>789129
Ну это уже толсто.
Ответы: >>789150
Аноним 05/07/16 Втр 20:53:26 789137
>>788584
Да вычислений чуть больше и пускай. Принципиальный момент это сами батчи, а не просто случайный вектор выборки и регуляризатор.
Ответы: >>789193
Аноним 05/07/16 Втр 20:54:46 789140
>>789082
Воронцовские лекции в разное время. Для начала пройди курс на курсере.
Аноним 05/07/16 Втр 20:56:59 789142
>>789119
Публикации, учитываемые скопусом, уровня вот мой говно-йоба-алгоритм.
За них хорошо платят.
Аноним 05/07/16 Втр 21:01:44 789150
>>789129
То-есть с каждым обновлением весов расстояние уменьшается1/y^2 и t просто перестает существовать?
Но как выходит так, что, например, у нас веса обновились 10 раз, расстояние сошлось.
Как 10 может быть меньше или равно тому маленькому числу? С чем это связано?
>>789136
Я не троллю, я реально не понимаю.
Ответы: >>789153 >>789189
Аноним 05/07/16 Втр 21:03:27 789153
>>789150
Гугли что такое гамма в твоих формулах.
Ответы: >>789159
Аноним 05/07/16 Втр 21:08:34 789159
>>789153
гамма-функция?
Аноним 05/07/16 Втр 21:45:55 789189
>>789150
Но также, веса после 10 итерации не существуют.
Да как так? Я понимаю, что математически это можно обосновать, но логически не понимаю.
Ответы: >>789396
Аноним 05/07/16 Втр 21:50:04 789193
>>789137
Да просто были сомнения что суммировать, тельту ошибки или dW. Если бы дельту ошибки, то появился бы вопрос, а как именно. Еще немного сбило с толку, что было написано, что батчами вычислять быстрее(но в другом месте было уточнение, что только в параллельных вычислениях)
Аноним 05/07/16 Втр 23:11:44 789244
Ладно, допустим я хочу компьютер научить говорить, что я для этого должен делать?
Ответы: >>789332
Аноним 06/07/16 Срд 02:46:12 789332
>>789244
В линупсе, например, festival.
На маках есть say:
> say - Convert text to audible speech
Аноним 06/07/16 Срд 07:30:51 789396
>>789189
Аноны, так с чем это связано? Как так выходит, что количество итераций обращается в ноль, хотя до этого росло?
Ответы: >>789412
Аноним 06/07/16 Срд 07:52:17 789412
14677915372450.jpg (154Кб, 800x600)
>>789396
съяби уже, а?
Ответы: >>789738
Аноним 06/07/16 Срд 08:19:59 789424
>>788440
https://www.youtube.com/watch?v=V1eYniJ0Rnk[РАСКРЫТЬ]

Гугли (Deep) Reinforcement Learning. на udacity есть такой курс.

Вот этот >>78845 защекан слышал где-то про алгоритм A* (поиск пути), но почему-то пропустил хайп 2 летней давности вокруг DeepMind
Ответы: >>789426
Аноним 06/07/16 Срд 08:21:37 789426
>>788455
>>788451
>>788458
>>789424
Аноним 06/07/16 Срд 09:13:34 789458
анончики, а как ищется элемент в массиве на нейроночках?
Ответы: >>789641
Аноним 06/07/16 Срд 13:18:02 789641
>>789458
мамка твоя ищет
Аноним 06/07/16 Срд 14:00:52 789687
Что скажете о курсе Machine Learning на Coursera?
Ответы: >>789709 >>789716 >>789726
Аноним 06/07/16 Срд 14:31:15 789709
>>789687
> ctrl+f
> bayes
> results:0
говно
Ответы: >>789716
Аноним 06/07/16 Срд 14:38:32 789716
>>789687
Хороший поверхностный курс
>>789709
для даунов.
Ответы: >>789726
Аноним 06/07/16 Срд 14:45:21 789726
>>789687 >>789716
Полноценные лекции, которые он читал в Стэнфорде:
https://www.youtube.com/playlist?list=PLA89DCFA6ADACE599

Конспекты лекций и прочие материалы:
http://cs229.stanford.edu/materials.html
Аноним 06/07/16 Срд 15:20:56 789737
Что-то аноны, сегодня совсем хуево, начал читать эту вашу "Unlocked Python", так он что-то совсем не идет.
Хотя написать перцептрон уже могу и понимаю, зачем и как нужны массивы в нем.
Ответы: >>789739 >>789742
Аноним 06/07/16 Срд 15:21:32 789738
>>789412
Не съебу, ни за что, я смогу и в нейроночки и в питона и в матан и в английский.
Аноним 06/07/16 Срд 15:24:43 789739
>>789737
>начал читать эту вашу "Unlocked Python"
потому что скорее всего там математическая муть без практики
Ответы: >>789741
Аноним 06/07/16 Срд 15:26:09 789741
>>789739
Нет, там именно код дается, только все в очень странной форме, концепция не объяснена и написано косноязычно немного.
Но оно уже и не особо нужно, я уже написал перцептрон.
Аноним 06/07/16 Срд 15:32:29 789742
>>789737
Таски выкладывай. Может быть толпой завалим.
Ответы: >>789744
Аноним 06/07/16 Срд 15:34:01 789744
>>789742
Да нет, все нормально.
Просто надо по другому пути Питона изучать, эта отдельная хуйня, где говорится, что и как можно делать с разными вещами совсем не формирует общую картину и даже не запоминается никак.
Ответы: >>789750
Аноним 06/07/16 Срд 15:43:01 789750
>>789744
И кстати, в реализации простого перцептрона не надо импортировать целый класс pcn, достаточно только pcntrain переписать же.
Просто в целом коде PyCharm находит ошибку
Ответы: >>789760
Аноним 06/07/16 Срд 16:01:15 789760
>>789750
Что ты делаешь? Нахуя реализовывать персептрон?
Ответы: >>789763
Аноним 06/07/16 Срд 16:03:20 789763
>>789760
Чтобы понять, как простейшую нейроночку писать, а потом приняться за сложные сети.
Да и по учебнику так идет же.
Аноним 06/07/16 Срд 16:11:45 789766
Что такое граф-модели? Пояните за них, позязя.
Ответы: >>790093
Аноним 06/07/16 Срд 21:43:12 790093
>>789766
Смотри сюда, ёбана.
Есть граф.
Есть вершины.
Есть рёбра.
Вершины - случайные величины.
Рёбра - описывает условные зависимости между вершинами.
То есть эта хуита позволяет добавлять структуру в данные (учитывать пространственную структуру изображений, вводить гладкие приоры в задачи предсказания и интерполяции, учитывать зависимость между симпотами болезней).
Смотри лекции Воронцова кароч, а потом читай Бишопа с Мёрфи, у них там по несколько глав про сабж. Охуительная тема.
Ответы: >>790096 >>790148
Аноним 06/07/16 Срд 21:46:17 790096
>>790093
Алсо, нейроночки тоже представимы в виде граф-моделей.
Ответы: >>790104
Аноним 06/07/16 Срд 21:54:09 790103
Аноны, автор учебника ебнутый?
Его код нихуя не работает.
Он говорит import pcn_logic_eg
Окай, вот файл с названием https://seat.massey.ac.nz/personal/s.r.marsland/Code/Ch3/pcn_logic_eg.py
в 47 строке ошибка.
Он не мог проверить, работает его код или нет, блядь?
Ответы: >>790116
Аноним 06/07/16 Срд 21:54:48 790104
>>790096
И всё это представимо в виде массивов. Анончик выше не пиздел.
Аноним 06/07/16 Срд 22:00:59 790116
>>790103

он писал на питоне 2.0, по-моему это и дауну должно было быть понятно
Ответы: >>790119
Аноним 06/07/16 Срд 22:03:02 790119
>>790116
Но он же года 3 как устаревшее и никому не нужное дерьмо
Ответы: >>790133
Аноним 06/07/16 Срд 22:11:35 790133
>>790119
А похуй, суть в скобках в print
Аноним 06/07/16 Срд 22:31:11 790148
>>790093
То есть это будущее ML? Как такая хита обучается?
Ответы: >>790160
Аноним 06/07/16 Срд 22:41:27 790160
>>790148
Это настоящее ML.
Кратко не опишу, но кароч хуячим аппроксимации апостериорного распределения.
Аноним 07/07/16 Чтв 04:32:54 790257
https://2ch.hk/pr/res/790256.html
https://2ch.hk/pr/res/790256.html
перекатываемся мужики
https://2ch.hk/pr/res/790256.html
https://2ch.hk/pr/res/790256.html
Аноним 08/07/16 Птн 12:35:36 791467
>>776147 (OP)
Было предложение поработать c tensorflow для начала за сотню баксов в неделю, после того как я вкачусь в ml, но вкатится не хватило знаний и времени, ибо в ml вообще ноль.
Предложение было действительно интересным и работодатель был из штатов, если бы получилось был бы очень хороший опыт + строчка в резюме.

[Назад][Обновить тред][Вверх][Каталог] [Реквест разбана] [Подписаться на тред] [ Автообновление ] 518 | 41 | 101
Назад Вверх Каталог Обновить

Топ тредов
Подписывайся на официальный канал Двача в Телеграме и узнавай обо всех новостях и мемах первым! https://tlg.wtf/dvachannel[X]