Программирование


Ответить в тред Ответить в тред

Check this out!
<<
Назад | Вниз | Каталог | Обновить тред | Автообновление
510 54 123

НЕЙРОНОЧКИ И МАШОБ ТРЕД №24 /ai/ Аноним 23/04/20 Чтв 15:31:31 16655151
1.jpg (215Кб, 1386x881)
1386x881
2.jpeg (60Кб, 1024x577)
1024x577
3.png (1096Кб, 1155x681)
1155x681
Очередной тред про хипстерские технологии, которые не работают.

Я ничего не понимаю, что делать?
Вкатывальщики импортят slesarplow as sp по туториалам (хотя сейчас актуальнее keras и pytorch)
Толковые качают из репозитория awesome-XXXX на гитхабе проект какого-то китайца, меняют фамилию и получают $10M инвестиций как стартап.
Умные смотрят prerequisites на https://see.stanford.edu/Course/CS229 и http://cs231n.stanford.edu/

Какая математика используется?
В основном линейная алгебра, теорвер, матстат, базовый матан и matrix calculus.

Почему python?
Исторически сложилось

Что почитать для вкатывания?
http://www.deeplearningbook.org/
Николенко "Глубокое обучение" - на русском, есть примеры, но меньше охват материала

В чем практиковаться нубу?
http://www.deeplearning.net/tutorial/
https://www.hackerrank.com/domains/ai
https://github.com/pytorch/examples
https://github.com/ChristosChristofidis/awesome-deep-learning#tutorials

Где набрать первый самостоятельный опыт?
https://www.kaggle.com/ | http://mltrainings.ru/
Стоит отметить, что спортивный deep learning отличается от работы примерно так же, как олимпиадное программирование от настоящего. За полпроцента точности в бизнесе борятся редко, а в случае проблем нанимают больше макак для разметки датасетов. На кагле ты будешь вилкой чистить свой датасет, чтобы на 0,1% обогнать конкурента.

Где работать?
https://www.indeed.com/q-deep-learning-jobs.html
Вкатывальщики могут устроиться программистами и дальше попроситься в ML-отдел

Где узнать последние новости?
https://www.reddit.com/r/MachineLearning/
http://www.datatau.com/
https://twitter.com/ylecun
На реддите также есть хороший FAQ для вкатывающихся

Где посмотреть последние статьи?
http://www.arxiv-sanity.com/
https://paperswithcode.com/
Количество статей зашкваливающее, поэтому все читают только свою узкую тему и хайповые статьи, упоминаемые в блогах, твиттере, ютубе и телеграме, топы NIPS и прочий хайп. Есть блоги, где кратко пересказывают статьи, даже на русском

Где ещё можно поговорить про анализ данных?
http://ods.ai/

Нужно ли покупать видеокарту/дорогой пека?
Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. На март 2020 Google Colab дает бесплатно аналог GPU среднего ценового уровня (что-то между 1050 и 1080) на несколько часов с возможностью продления.
Иначе выгоднее вложиться в GPU https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning/ Заодно в майнкрафт на топовых настройках погоняешь

Когда уже изобретут AI и он нас всех поработит?
На текущем железе - никогда, тред не об этом

Список дедовских книг для серьёзных людей:
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: http://libgen.io/

Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.

Предыдущий:
https://2ch.hk/pr/res/1635685.html
Аноним 23/04/20 Чтв 16:03:41 16655382
Аноним 23/04/20 Чтв 17:48:06 16656713
5f2c54577c71c8e[...].gif (860Кб, 553x396)
553x396
ad9b28f6-tensor[...].gif (76Кб, 1000x636)
1000x636
d07f92afb96b227[...].gif (2461Кб, 1500x900)
1500x900
python-intellic[...].gif (441Кб, 1180x524)
1180x524
tensorsflowing.gif (517Кб, 225x400)
225x400
TRYONsAutoMLVis[...].gif (6304Кб, 480x270)
480x270
16-64-Robots-00[...].webm (9228Кб, 640x480, 00:00:51)
640x480
16-64-Robots-00[...].webm (12223Кб, 1280x720, 00:02:20)
1280x720
Ну што, вы готовы, дети? Аутомл на одном проце, без видеокарт, за 12 часов с нуля вкатился в машобчик, и пользуясь полученными знаниями, улучшил себя. А вы за сколько вкатитесь? То-то.
> AutoML-Zero has already discovered neural networks, back-propagation, data-augmentation etc. from scratch within 12 hrs on a single CPU. It can adapt to lack of training data, required training speed and tasks.
https://bigthink.com/surprising-science/automl?rebelltitem=2#rebelltitem2
Ссылочка на архив: https://arxiv.org/abs/2003.03384
Аноним 23/04/20 Чтв 18:21:52 16656994
>>1665671
Очередной громкий пук
Аноним 23/04/20 Чтв 18:48:10 16657225
>>1665671
Лол, меня уже репостят.
>>1665699
Хуюшки. Я ещё 5 лет назад думал о системах из алгоритмов машобчика, по кругу дрочащих друг другу гиперпараметры, причем последний настраивает гиперпараметры первого, по типу гиперциклов Эйгена, только с произвольно сложной структурой. Сейчас есть такие алгоритмы, о которых в 2015 никто и не мечтал. В 2020 идея обучить некую совокупность алгоритмов кодингу, чтобы он мог переписывать и улучшать сам себя уже не выглядит фантастикой. Причем, в составе такой метаструктуры могут быть Ганы с дипфейками, подсистемы могущие обучаться хакингу и взламывать все, до чего добрались и прочее. При сохранении нынешнего темпа развития машобчика, вышеописанное может стать реальностью через 5-10 лет. Хокинг покойничек в свое время призывал запретить такие исследования к хуям, пока всему человечеству песда не настала. Ну а в менее жуткой перспективе нечто такое на минималках легко порешает зумеров вкатывальщиков. Тут вообще аутомла хватит.
Аноним 23/04/20 Чтв 18:51:53 16657256
>>1665722
> Хокинг покойничек в свое время призывал запретить такие исследования к хуям, пока всему человечеству песда не настала
Не мы, так Китай, и хули?
Аноним 23/04/20 Чтв 18:55:01 16657287
>>1665725
> Не мы, так Китай, и хули?
О, эти могут. Такая система может обучиться молекулярной биологии, и хуярить полиморфные коровавирусы, которые вообще ничем не возьмёшь, никакая вакцина против них не будет работать.
23/04/20 Чтв 18:58:07 16657318
В голос с этого футуролоха.
Аноним 23/04/20 Чтв 20:16:23 16658239
>>1665722
Будущий прорыв в conditional computations, а не automl, в котором ничего особенного нет
Аноним 24/04/20 Птн 00:04:13 166600310
Аноним 24/04/20 Птн 00:23:22 166601111
>>1666003
MNIST можно даже на буханке хлеба обучить, не то что на полносвязных слоях. Проблемы начинаются, когда тебе нужны картинки побольше чем 28х28х1
Аноним 24/04/20 Птн 00:25:25 166601212
>>1666011
То есть тут на обучающем примере решили немного резать путь?

А на больших картинках или видео для GAN ещё и полноценная cnn понадобится?
Аноним 24/04/20 Птн 00:26:29 166601313
>>1665722
>Я ещё 5 лет назад думал о системах из алгоритмов машобчика...
Автоматизация тряски черного ящика это путь в никуда.
Хокинг петух.
Аноним 24/04/20 Птн 08:27:10 166609514
Аноним 24/04/20 Птн 08:28:40 166609615
Подскажите про всякие структуры для быстрого поиска ближайших соседей. Я правильно понимаю, что добавить туда новый объект невозможно - только с нуля перестраивать?
Аноним 24/04/20 Птн 11:10:29 166620116
>>1666003
Смысл свёртки же в том, чтобы уменьшить число параметров, учитывая при этом всю картинку.

А если параметров изначально мало, то можно сразу хуярить полносвязные слои.
Аноним 24/04/20 Птн 11:19:11 166620917
Аноним 24/04/20 Птн 17:25:01 166654918
>>1666012
>То есть тут на обучающем примере решили немного резать путь?
В идеале у нас должен быть ГПУ с зиллионом флопсов и столько же памяти, чтобы просто каждый слой делать полносвязным, а об обнулении параметров пусть алгоритм думает. Но фактически это работает только на MNIST.
И то в идеале тебе нужно предпринять аугментацию данных, подвигав циферки по осям x и y, иначе решение по сравнению со сверткой будет сосать, просто потому что у нейронки будет недостаточно знаний о 2D-пространстве.
>>1666201
>Смысл свёртки же в том, чтобы уменьшить число параметров, учитывая при этом всю картинку.
Смысл свертки во внедрении знаний о датасете в архитектуру.
Аноним 24/04/20 Птн 19:40:46 166666119
>>1666209
>ResNet?
Он на слабых машинах идёт?
Аноним 24/04/20 Птн 22:38:17 166679320
Здарова бандиты, существует одна проблема, взялся за реализацию FAST RCNN с нуля, проблема собственно с ROI слоем, в инпутах у него 1 карта признаков и тензор с roi'сами вопрос, нужно чтобы изображение и как в следствии карта признаков от изображения использовалась единожды со всеми roi'сами(один раз получили карту признаков и спользовали ее для каждого roi'са), спасибо за внимание!
Аноним 25/04/20 Суб 00:05:51 166689021
Иными словами есть n тензоров на инпуте, как организовать на каждый тензор входящий в dense слой свой оутпут?
Аноним 25/04/20 Суб 01:14:40 166691922
>>1666890
В гугле "фреймворк нейм split layer".
После этого после своего dense слоя сплитишь его и направляешь куда нужно.
Аноним 25/04/20 Суб 14:31:54 166718623
>>1666919
Гиперспасибо, а можно ли сплитнуть выходы с roi и поэлементно направить тензоры в один и тот же dense слой?
Аноним 25/04/20 Суб 15:26:05 166721624
Работающие, вы для решения задач используете готовые подходы/модели из статей/гитхаба или придумываете своё?
Аноним 25/04/20 Суб 15:55:18 166722525
image.png (83Кб, 921x243)
921x243
>>1666919
И еще такой вопрос, на пике архитектурка, справится ли керасовское обратное распространение магическим образом с CNN стоящим после ROI, или нужно будет самому обучать CNNку?
Аноним 25/04/20 Суб 16:07:47 166723226
Аноним 25/04/20 Суб 19:11:29 166737727
Хочу я, чтобы нейронка распознавала мой рукописный текст. Не произвольный человеческий, а именно мой.

Есть ли какая-нибудь пошаговая инструкция по созданию и тренировке подобной нейронки?
Аноним 25/04/20 Суб 23:06:21 166765928
>>1667232
Да это понятно, меня интересует именно возможность добавления и удаление объектов без перестраивания всей структуры с нуля.
Аноним 26/04/20 Вск 03:12:40 166777429
>>1665722
лол, автомл шиз еще не умер
Аноним 26/04/20 Вск 03:25:47 166777830
>>1666013
не отвечай этому шизу, он поехавший, про зумеров вкатывальщиков уже год кукарекает, все пришествие авто эмэла ждет, а нет до сих пор тут сидит, лол
Аноним 26/04/20 Вск 03:26:02 166777931
Аноним 26/04/20 Вск 10:13:18 166784232
Аноним 26/04/20 Вск 11:17:55 166786833
>>1667778
>>1667774
По делу-то нечего сказать, мань? Ну что ты можешь в машобчике, чего не может automl-zero? Ни Ху Я.
Аноним 26/04/20 Вск 13:19:08 166795534
>>1667868
далбаеб, еще раз тебе пишу, почему твоего автомла не видно в вакансиях топ компашек? Ты уже год высираешь одно и тоже, долбаеб, хоть бы почитал что да как

https://arxiv.org/pdf/2003.03384.pdf
>AutoML-Zero concerns the automatic discovery of algorithms that perform well on a given set of ML tasks T . First,
search experiments explore a very large space of algorithms
A for an optimal and generalizable a
∗ ∈ A. The search
could be random, evolutionary, etc
Свободен, дурачек
Аноним 26/04/20 Вск 13:26:22 166795835
Ты на вопрос не ответил, мань.
>>1667955
> почему твоего автомла не видно в вакансиях топ компашек?
Потому что он вместо вакансий?
Аноним 26/04/20 Вск 13:44:28 166796136
>>1667958
Хах, чекаю стату по кол-ву вакансий по млу, кол-во даже растет в некоторые сезоны, стату собираю чуть меньше года по месяцам с индеда.
Аноним 26/04/20 Вск 14:47:24 166799937
Ех, слава богу автомль победит только зумеров с их няронками паршивыми, а настоящие специалисты с картами кохонесов и каэнн-каминс в безопастности так как всегда будут нужны!
Аноним 26/04/20 Вск 14:50:32 166800738
Почему бустрап обеспечивает то что лёрнеры на подвыборках обученные будут нескореллированы?
Аноним 26/04/20 Вск 17:11:46 166816939
>>1668007
Потому что выборки, полученные в результате ресемплинга, независимые.
Не до конца обеспечивает, в random forest для уменьшения корреляции используется ещё и метод случайных подпространств.
Аноним 26/04/20 Вск 17:23:53 166818540
RageFace.png (17Кб, 300x309)
300x309
Сука, как же заебали твари, пишущие курсы по тензорфлоу. Ни в одном курсе нет данных по интеграции, распараллеливанию, оптимизации, да даже по расчёту затрат памяти - а ведь автоматика за тебя этим заниматься не будет, это не ram, кончилась видеопамять - сасай, и похуй, что ещё три видюхи свободны. Нет, мы лучше ещё раз расскажем, как собрать свёрточную сеть для классификации котов и собак.
Аноним 26/04/20 Вск 18:55:40 166827641
>>1668185
Так говорили тебе, что несколько видюх нужны для нескольких экспериментов, параллелить обучение одной модели это нахуй не нужный гемор
Аноним 26/04/20 Вск 18:59:53 166828342
>>1667868
>По делу-то нечего сказать, мань? Ну что ты можешь в машобчике, чего не может automl-zero? Ни Ху Я.
Во-первых, написание ТЗ и составление датасетов. Как че спарсить, пофоткать, написать скрипт для разметки и т. д.
Во-вторых, написать нормальную целевую функцию. Там, где речь идет о субъективном качестве, ML сосет. Естественно, когда лосс=0, то похуй, все идеально будет. Но на самом деле любая генеративная нейронка создает артефакты, качество которых оценить может только человек, потому что человек является главным потребителем и автоматизировать это можно только если получать целевую функцию прямо из мозга.
В-третьих, соптимизировать для железа.
В четвертых, все, что могут подобные системы я делаю на несколько порядков лучше, потому что это не шахматы и не старкрафт, где АИ выезжает только на том, что думает быстро. Здесь торопиться некуда.
Аноним 26/04/20 Вск 19:13:19 166830243
>>1668276
А если оно не влезает? Или лучшее решение - "купи видюху помощнее"? А в проде как быть, когда несколько моделей запустить надо?
Аноним 26/04/20 Вск 19:21:06 166830744
>>1668169
>выборки, полученные в результате ресемплинга, независимые
Они же одного распределения, как независимые?
Аноним 26/04/20 Вск 19:23:56 166830945
>>1668307
Ну так независимые. Совокупная вероятность равна произведению вероятностей.
Аноним 26/04/20 Вск 19:29:52 166831346
>>1668309
Не, ну и что, в этом смысле при рандом сплите трейн от теста тоже "независим" но нельзя ж сказать что качество на трейне и на тесте не коррелирует никак.
Аноним 26/04/20 Вск 21:21:05 166840547
1
Аноним 26/04/20 Вск 22:00:08 166843948
в общем, хочу написать статью на медиуме - про information value и credit scoring

Анон, ты мог бы посмотреть на саму статью?
Анон, ты мог бы подсказать, а это не обсосная тема для первой статьи?
Аноним 26/04/20 Вск 22:11:10 166844349
>>1668439
>credit scoring
Обсосная конечно. Впрочем, пиши, не похуй ли
Аноним 27/04/20 Пнд 00:40:04 166856450
А что там зумерошиз двумя-тремя тредами ранее кидал про машоб на лиспе и камле? Стоящее что-то?
Дайте плиз куда почитать
Аноним 27/04/20 Пнд 00:47:47 166857051
Напомните, пожалуйста, почему pix2pix может скатываться за 100-3000 итераций в черные квадраты на выходе? Пробовал уменьшать Lr, l1, gan weights - ничего не помогает. Может требуется оригинальная версия tensorflow 1.0.0, которой уже нету в репозитории? Пробовал как на оригинальном датасете так и на своем.
Аноним 27/04/20 Пнд 02:03:39 166860052
>>1668570
Потому что это GAN, а тренировка ганов крайне неустойчивое дело
>Может требуется оригинальная версия tensorflow 1.0.0, которой уже нету в репозитории
Вряд ли

Попробуй взять оригинальный датасет и не менять ничего вообще
Аноним 27/04/20 Пнд 02:07:57 166860153
>>1668600
вот именно, что я помню, как пару лет назад оно работало по дефолту и ни разу не сваливалось ни на каких сетах, что дефолтных, чт омоих. А сейчас все идет по пизде, причем разные имплементации. Делаешь меньше lr и все прочее- просто позже наступает черный экран. Только p2pHD работает.
Аноним 27/04/20 Пнд 02:11:05 166860254
>>1668601
И за счет чего это может произойти? Я бы скорее поверил что в мастер бранче pix2pix поселился бранч, чем зависимость от версии tf. Но в принципе ты можешь докерфайл собрать со старой кудой и попробовать pip install tensorflow-gpu==что-то-древнее
Аноним 27/04/20 Пнд 02:15:38 166860555
>>1668602
ну выдается много ошибок при выполнении инициализации. Типа древний код. Кажется проще будет самому в тф2 накопипастить новый код. А старых тф-гпу уже нету. Может быть и куда. Это все пробую п2п 512 с дополнительными слоями. Ранее запускал на 1024 имплементацию, так она работала. А сейчас и она не работает, и прочие. Такие дела.
Аноним 27/04/20 Пнд 02:20:13 166860656
Screenshot2020-[...].png (173Кб, 1148x676)
1148x676
>>1668605
>ну выдается много ошибок при выполнении инициализации
Так почитай их
>А старых тф-гпу уже нету
Вот ты потратил 30 секунд моей жизни, и непонятно, нахуя
Аноним 27/04/20 Пнд 02:20:54 166860757
>>1668606
tensorflow-gpu==1.0.0 тоже прекрасно ставится
Аноним 27/04/20 Пнд 02:25:25 166860858
>>1668606
>>1668607
ERROR: Could not find a version that satisfies the requirement tensorflow-gpu==1.0.0 (from versions: 1.13.1, 1.13.2, 1.14.0, 1.15.0rc0, 1.15.0rc1, 1.15.0rc2, 1.15.0rc3,
1.15.0, 1.15.2, 2.0.0a0, 2.0.0b0, 2.0.0b1, 2.0.0rc0, 2.0.0rc1, 2.0.0rc2, 2.0.0, 2.0.1, 2.1.0rc0, 2.1.0rc1, 2.1.0rc2, 2.1.0, 2.2.0rc0, 2.2.0rc1, 2.2.0rc2, 2.2.0rc3)
ERROR: No matching distribution found for tensorflow-gpu==1.0.0
ЧТО ЗА РЕПОЗИТОРИЙ, ЛИНУКСОИД
Аноним 27/04/20 Пнд 02:26:34 166860959
>>1668606
я тоже иногда думаю, что нужно ставить линукс, но потом понимаю, что мне комп нужен для работы а не для ебли.
Аноним 27/04/20 Пнд 02:28:01 166861160
>>1668608
Попробуй второй питон
Аноним 27/04/20 Пнд 02:31:08 166861261
>>1668609
Ну если ты работаешь менеджером по продажам, то да
Аноним 27/04/20 Пнд 02:32:20 166861362
>>1668612
да спасибо, наверное дело в куче зависимостей. Буду делать в тф2, но завтра.
Аноним 27/04/20 Пнд 11:05:59 166880563
>>1668606
>>1668611
ну в общем продолжаю, исправил ошибки в коде на tf.compat.v1, но это не дало никаких результатов. Сейчас уменьшил lt до 0.000 005, а также L1 и gan weight с 100 и 1 до 5 и 0.05. Вроде как работает часа два, изменения вносятся, вроде логичные. Может скатывание в черные квадраты было связано с реально большим количеством слоев, для которых lr 0.000 02 - реально слишком много, что и приводило, как оказывается, к "победе дискриминатора" (ака черным квадратам) или генератора, не суть важно..
Аноним 27/04/20 Пнд 11:13:31 166882264
>>1665515 (OP)
Как ваши нейроночки, разработали уже нормально?
Аноним 27/04/20 Пнд 12:56:39 166892165
>>1668313
>в этом смысле при рандом сплите трейн от теста тоже "независим"
Нет, это неверно. Перечитай, что такое независимость случайных величин. Величины из одного и того же распределения вполне могут быть независимыми.
>нельзя ж сказать что качество на трейне и на тесте не коррелирует
Коррелировать могут две случайные величины. А ты просто употребляешь термины из теории вероятностей, не понимая их смысла.
Аноним 27/04/20 Пнд 14:05:15 166900766
Аноним 27/04/20 Пнд 14:21:40 166903367
>>1667955
думаю, лет через 10 настоящий мл будут пилить только большие компании, а для большинства компаний будет достаточно фронтэндеров с "<script>from google_ai import yoba_linear_regression</script>"
Аноним 27/04/20 Пнд 14:45:39 166908568
>>1668185
пишут курсы те, кто хочет сам обучиться- лучший способ чему-то научиться- попробовать научить этому кого-то.
Аноним 27/04/20 Пнд 15:05:17 166913369
>>1669033
Маловероятно. Низкоуровневый доступ к функциям будет всегда скорее всего. Зумера не знают, что первый прообраз нынешних слесарьпловов и торчей был создан ещё в 90е - штутгартский нейросетевой симулятор, SNNS. Его, кстати, очень удачно портировали в R, да и в оригинальном виде его сейчас найти не сложно. Мануал к нему - отдельная годнота, помимо прочего это ещё и серьезная матчасть по нейроночкам. Так вот, с тех пор качественно мало что изменилось. И вряд ли что-то в этой области серьезно изменится в обозримом будущем.
Аноним 27/04/20 Пнд 15:16:39 166916570
>>1669033
Маня-менеджеры об этом 70 лет мечтают и говорят. Вот нажмёт анон одну кнопку и у него сайт из головы сразу построится! такое будущее, которого не заслужили. А на деле, только и успевают, как менять язык-нейм на другой
Аноним 27/04/20 Пнд 15:17:06 166916771
>>1669085
Пишут курсы умные люди, которые стригут на идиотках-вкотиках денег больше, чем сеньоры в гуглах
Аноним 27/04/20 Пнд 16:21:47 166923472
>>1669085
> пишут курсы
>>1669167
> Пишут курсы
Инфоцыгане, цель которых - стрижка лохов, верующих что за бабло их добрый дядя научит как получать 300ккк/наносек.
Аноним 27/04/20 Пнд 16:43:09 166925473
>>1669234
Ложное чувство знания и игра на чувствах "прошел курс - ачивка"
Есть у нас один зумер-программист, который прям "какжи я люблю курсы!!!!!!!"
Аноним 27/04/20 Пнд 17:31:40 166930374
>>1668921
> Нет, это неверно.
Почему?
> Коррелировать могут две случайные величины. А ты просто употребляешь термины из теории вероятностей, не понимая их смысла.
Что имеется ввиду когда говорят про нескореллированность лёрнеров? Здесь смысл аналогичный
Аноним 27/04/20 Пнд 18:55:34 166937975
>>1669303
>Почему?
Пусть есть выборка X, и ты разделил её на непересекающиеся выбоки X_train (длины n) и X_test (длины m). Вероятность ресемплингом без возвращения набрать X_train = 1/C(n + m, n), вероятность ресемплингом без возвращения набрать X_train = 1/C(n + m, m), это их частные распределения, но их полное распределение другое - p(X^n, X^m) = 0, если выборки X^n и X^m пересекаются, т.е. полное распределение не равно произведению частных, т.е. случайные величины не независимы.
>Что имеется ввиду когда говорят про нескореллированность лёрнеров?
Это хорошо написано вот тут http://www.machinelearning.ru/wiki/images/2/21/Voron-ML-Compositions-slides2.pdf на слайде 20 в самом низу. Это вполне конкретное математическое выражение, а не какие-то общие слова. А независимость следует из независимости выборок и свойств борелевских функций от случайных величин.

Я не великий специалист по терверу, но ты, похоже, даже азов не знаешь. Иди учи, они реально необходимы.
Аноним 27/04/20 Пнд 19:24:04 166943676
Пасаны, не обоссывайте за вопрос слишком сильно, но насколько сложно вкатится в базовый анализ сентиментов в социальных сетях имея из опыта программирования базовые навыки в питоне и опыт использования линупса? Ну и что почитать примерно хоть поясните. Пробовал искать статьи по тегам, но сразу начинать со всяких random forest и knn сложновато.
Аноним 27/04/20 Пнд 19:43:07 166946577
>>1669379
Не раздражайся, просто ты не очень полно формулируешь мысли, поэтому трудно понять.
C элементарным тервером я знаком конечно, а вот со статистическим лёрнингом не очень, поэтому не вполне понятно в каком смысле лёрнер это случайная величина.
> А независимость следует из независимости выборок и свойств борелевских функций от случайных величин.
Вот это кажется ответ
Аноним 27/04/20 Пнд 21:15:59 166954378
Untitled-12[1].jpg (67Кб, 900x399)
900x399
unnamed[2].png (33Кб, 494x375)
494x375
scale1200[1].jpg (44Кб, 589x358)
589x358
Что можно напарсить, чтобы нейронка из этого профит извлекла?
Аноним 27/04/20 Пнд 21:20:05 166955379
>>1669436
Ты неправильно подходишь к вопросу. Сначала сформулируй задачу, а потом придумай решение. random forest и knn - методы решения некоторой задачи.

В твоём случае задача может быть multi-class classification (человек доволен/недоволен, испытывает какую-то одну эмоцию), multi-label classification (человек в одном тексте выражает несколько разных эмоций), или вообще ordinal regression (у эмоций есть градации - очень недоволен, недоволен, нейтрален, доволен, очень доволен). То, какую задачу ты решаешь - это не математическая задача, это определяется тем, что ты хочешь получить в итоге (или что хочет получить в итоге заказчик), что ты сможешь сделать за то время, что у тебя есть, с теми ресурсами, что у тебя есть, на что тебе хватит профессионализма и т.д. Короче: постановка задачи зависит от внешних причин. И то, какая задача ставится, определяет то, какими методами ты будешь пользоваться.

Далее, тебе надо sentiment analysis социальных сетей. Значит, тебе нужно изучать методы работы с текстами: твой основной объект распознавания - текстовое сообщение. Ищи сводные статьи по типу "machine learning on texts", их дохера на том же медиуме. Реально твоя работа будет выглядеть как "собрал из стандартных кирпичиков модель под задачу и начал подбирать параметры, пока не заработало".
Аноним 27/04/20 Пнд 21:21:03 166955480
>>1669543
Это не нейронка должна извлекать профит, а ты из инвесторов обещаниями AI-стартапа.
Аноним 28/04/20 Втр 08:49:01 166985781
Аноним 28/04/20 Втр 11:37:52 167000182
По образованию я физик, поэтому интересуют сети с энергиями. В частности машины Больцмана.
Какие есть методы ее обучения, помимо градиентного спуска? Работал ли кто нибудь с машинами с другим распределением или с топологией?
Аноним 28/04/20 Втр 11:46:06 167001083
>>1669165
Сайты и фронтенд как раз останутся, т.к. сайты - это вопрос моды, стиля и прочих неизмеримых вещей. А, например, для НЛП `импорт берт фром трансформерс_хаггингфейс` уже почти всегда достаточно, если это не каггл (недостаточно, но ничего лучше человечество сейчас предложить не может).
28/04/20 Втр 12:42:25 167005784
>>1670001
>машины Больцмана
Дед, как там в доме престарелых?
Аноним 28/04/20 Втр 12:54:01 167006985
>>1670057
>Дед, как там в доме престарелых?
Пока хорошо, из-за короны перестали выпускать.Вот сидим, запускаем квантовый аналог этой сети на d-wave
Аноним 28/04/20 Втр 14:08:06 167018386
Всё что моложе логистической регрессии - расхайпленное говно для зумеров.
Аноним 28/04/20 Втр 14:44:08 167024687
137778276052916[...].png (50Кб, 367x320)
367x320
>>1667377
а он у тебя читабельный или закорючки как у врачей?
Аноним 28/04/20 Втр 14:49:28 167025488
>>1669033
а что не так? Упрощение это одно из особенностей н/т прогресса
Аноним 28/04/20 Втр 14:56:53 167026389
>>1670254
это я к тому, что Auto ML быть, и одними из первых пострадают Тензорфлоу-слесари.
28/04/20 Втр 15:20:00 167029290
>>1670069
Респект, но я не уверен, что это ML.
Аноним 28/04/20 Втр 15:45:02 167032791
Аноним 28/04/20 Втр 15:48:39 167033192
>>1670001
>машины Больцмана
>паравоз Жопеншмульцера
Аноним 28/04/20 Втр 17:23:04 167047993
>>1670327
Оно отжигает не по весам, в этом и проблема. Тут d-wave юзается чисто для того, чтобы можно было неклассическую энергию получить.
Аноним 28/04/20 Втр 17:24:28 167048194
>>1670292
Разные способы обучения как раз по ML. Как это говно считать потом, это к квантам, а сама идея это сюда.
Аноним 28/04/20 Втр 22:29:12 167095195
>>1670263
Я тебе уже написал, почему это нихуя не изменит, но ты проигнорировал неудобный пост
Аноним 28/04/20 Втр 22:36:40 167096496
>>1670246
Кривой, некрасивый, но читабельный. Некоторые системы распознавания с моими закорючками справляются, но хочу сделать свою, без предварительного глубокого изучения этих ваших deep learning'ов.
Аноним 28/04/20 Втр 23:25:39 167100597
Вообще не представляю как и зачем ml используется в естественных науках.
Вам же скорее всего надо явление понять, а не просто как-нибудь зафитится под табличку с числами, зачем в какой-нибудь физике ml вообще?
Или это типа инженерия скорее, установку какую-нибудь строите?
Аноним 28/04/20 Втр 23:26:24 167100698
>зафититься
Аноним 28/04/20 Втр 23:41:34 167101699
>>1671005
медицина это естественная наука?
Аноним 28/04/20 Втр 23:51:49 1671027100
>>1671016
Не, насчёт того что базируется на статистике то как раз всё понятно - там табличка с числами.
Аноним 29/04/20 Срд 00:04:53 1671041101
>>1671027
Ну говорят, что белки начали фолдить через ML. Фолдинг белков это экспотенциально-сложная задача.
Аноним 29/04/20 Срд 01:08:59 1671078102
>>1671041
>белки начали фолдить
За щекой?
Аноним 29/04/20 Срд 01:10:22 1671080103
>>1671005
>в естественных науках.
Т.е. что большинство наук натягивается на теоретическое матаноговно не имеющее отношение к реальности, тебя не смущает?
Аноним 29/04/20 Срд 01:32:16 1671086104
>>1671027
Тебе нихуя не понятно.
"Понять явление" - это пустая фраза, за которой ничего нет. Задача естественной науки делать предсказания, а не какое-то там мифическое "понимание".
Естественные науки базируются на статистике. Открытый бозон Хиггса с вероятностью меньшей, чем 5 сигма, является просто совпадением на LHC.
Так было всегда. Почитай статью least squares на википедии, метод был сформулирован Гауссом для нахождения орбит спутников согласно данным астрономов. В ML метод наименьших квадратов для нахождения линейной регрессией объясняется самым первым.
Любые законы доказываются статистически. При этом в любой модели есть свободные параметры, например, постоянная Планка это весовой коэффициент в модели.
Проблема в том, что модели усложняются намного быстрее, чем человеческие возможности успевают их описывать в удобном для человека виде. Поэтому рулят численные решения дифференциальных уравнений. ML в этом плане ничуть не хуже любого другого метода, если он работает. Собственно ML это просто совокупность практик, которые со временем выделились в отдельную дисциплину, как часто происходит в науке. Сами эти практики в том или ином виде использовались всегда.
Аноним 29/04/20 Срд 01:40:04 1671087105
>>1671005
В квантах используется для моделирования. Есть еба установка, ее запускать дорого. Ты позапускал ее некоторое кол-во раз, на данных обучил нейросеть генерировать результат, а потом исследуешь сеть, вместо установки. Неожиданно, но это иногда работает лучше, чем прямой анализ данных человеком.
Аноним 29/04/20 Срд 01:41:49 1671088106
>>1671086
> Задача естественной науки делать предсказания, а не какое-то там мифическое "понимание".
Построение интуитивной модели вполне может прокатить как "понимание"
Аноним 29/04/20 Срд 01:50:01 1671089107
>>1671088
Это проблемы мешка с мясом, который статью пишет. От его "понимания" никому вокруг легче не станет. В лучшем случае, если он учебник напишет
Аноним 29/04/20 Срд 03:51:09 1671099108
>>1671086
>модели усложняются
И чо, как там квантовая модель поживает, хомячки хавают?
Аноним 29/04/20 Срд 04:43:57 1671103109
>>1671086
Понимание = выведение аналитических формул, это обнаружение закономерностей, того, что формула может работать в других видах науки. Вот что дает быстрое предсказание результатов. А куча собранной статистики, без понимания. Это так, игрушки. Интеллект у нас в мире представлен только людьми, нейронки это жалкое подражание. Которое может обогнать в узких областях, типа распознавания котиков (но фейлиться на диване с расцветкой леопарда). Вот если будет технологическая сингулярность...
Аноним 29/04/20 Срд 07:32:45 1671145110
15879619103830.jpg (109Кб, 600x600)
600x600
>>1671086
>>1671103
Зачем вам машобчик, если вы даже не понимаете, что он делает. Про как он это делает, вообще молчу.
Аноним 29/04/20 Срд 11:44:12 1671258111
>>1671086
>Задача естественной науки делать предсказания, а не какое-то там мифическое "понимание".
С точностью до наоборот, наука - про то чтобы сделать обозримую человеком теорию, а не подсчитать брутфорсом кучу чисел.
По крайней мере, теоретическая физика об этом.
Аноним 29/04/20 Срд 12:00:58 1671271112
>>1671258
ты попутал маркетинг с наукой. Теория относительности- далеко не каждому дано понять. Но это же наука. Тот же коллайдер только и делает, что изучает брутфорс реальности путем столкновения частиц.
Аноним 29/04/20 Срд 12:12:14 1671279113
>>1671271
> Тот же коллайдер только и делает, что изучает брутфорс реальности путем столкновения частиц.
Школьник, открой для себя идентификацию систем.
Аноним 29/04/20 Срд 12:48:07 1671305114
>>1671258
>По крайней мере, теоретическая физика об этом.
Нет, теоретическая физика не об этом. Это устаревший подход из 19 века. С появлением квантовой механики он умер естественной смертью, потому что мир оказался сложнее человеческой интуиции, которая формировалась не для того, чтобы человек "понимал" квантовую механику. Это хорошо показывают любые интерпретации квантовой механики, которые очень ограничены и фактически напоминают попытки анализировать тессеракт с помощью циркуля и линейки.
Аноним 29/04/20 Срд 13:09:38 1671321115
>>1671305
>потому что мир оказался сложнее человеческой интуиции
Теоретическое знание оно не про интуицию, посмотри на теории струн и прочие M-теории. Тем не менее они вполне обозримы и понимаемы людьми.
Аноним 29/04/20 Срд 13:44:45 1671356116
152122897813557[...].jpg (35Кб, 331x289)
331x289
>>1671321
>теории струн и прочие M-теории
Аноним 29/04/20 Срд 13:44:46 1671357117
Таджики здесь? Пример фамилии, оканчивающиеся на пурдухт можно? Ничего не гуглится кроме этой новости и 1.5 обсуждений. Поди сегодня и придумали эту "традиционную таджикскую фамилию", а?
Аноним 29/04/20 Срд 13:45:40 1671360118
>>1671357
>Таджики здесь?
Ты не в тот тред воюешь, ньюсач там ->
Аноним 29/04/20 Срд 13:46:11 1671362119
15875436816120.png (63Кб, 390x470)
390x470
>>1671357
Лол, не в тот тред написал. Хотя, наверное не так и промахнулся
Аноним 29/04/20 Срд 14:27:33 1671395120
>>1671357
>пирдухт
Не знаем таких, нас тут только жопеншмульцеры.
Аноним 29/04/20 Срд 14:53:04 1671421121
Яндексойды на месте? Как там у вас с машинлёрнингом?
Однажды разговаривал с знакомым знакомого сестры отца который там работает, от его слов как-то энтузиазма не прибавилось, сказал что вся работа сводится к перекладыванию табличек, использованию готового апи и поддержке существующих пайплайнов. Это похоже на правду? Во всех крупных компаниях так?
Может стартапы перспективнее с точки зрения роста скилов в мле?
29/04/20 Срд 15:01:02 1671423122
>>1669133
Ты про этот? >>1670951

не вижу вообще противоречий.
Аноним 29/04/20 Срд 15:54:55 1671473123
image.png (72Кб, 718x598)
718x598
Аноны, которые пользуются Tensorboard, подскажите плз, можно ли как то в ручную запустить лог? Я смог создать лог (он находиться в папке, где программа), но при переходе на http://localhost:6006/ мне выдает пикрил, подскажите, а то я ща с ума сойду.
Аноним 29/04/20 Срд 16:19:38 1671513124
>>1671473
Сразу банальный вопрос- прописывал ли ты путь к логу при запуске сервера?
Аноним 29/04/20 Срд 16:31:05 1671532125
>>1671513
Да прописывал и уже понял, как раз в этом пути обосрался. Плюс в процессах висело аж 5 тенсорбордов, так что я их закрыл к хуям, запустил по новой с правильным путем, и все заработало. Все равно спасибо, анон.
Аноним 29/04/20 Срд 17:35:07 1671648126
>>1671258
Это открытый эпистемологический вопрос.

Что-то обобщать и систематизировать можно тогда, когда уже наработано достаточное количества фактического материала. Строить теорию с нуля это как создавать форму без содержания, кодекс законов без субъектов ему повинующихся, правило, без отдельных случаев, из которых оно выводится и которые подтверждали бы его верность.
Аноним 29/04/20 Срд 17:46:29 1671659127
Ещё не утратила силу истина, высказанная Аристотелем: то, что по существу своему занимает первое место, является для нашего познания самым последним. В логически-систематическом построении науки дефиниции основных понятий занимают, конечно, первое место, но только законченную науку можно построить таким образом, - начиная с самого простого и ясного. Если наука ещё в разработке, то нужно исходить из непосредственно данных проблем, которые всегда в вышей степени сложны и лишь постепенно могут быть разложены на свои элементы. Самый простой результат мышления отнюдь не есть результат самого простого мышления.
Аноним 29/04/20 Срд 18:30:42 1671690128
>>1671648
>Строить теорию с нуля...
Получится религия
Аноним 29/04/20 Срд 21:03:52 1671815129
Кому-нибудь приходилось real-time получать данные с удалённой машины для обучения (мб хранилища на инстансе не хватает)?
Аноним 29/04/20 Срд 21:21:01 1671837130
>>1671815
>real-time
>обучения
Выбери что то одно
Аноним 29/04/20 Срд 21:43:02 1671853131
> Выбери что то одно
Не рил тайм обучать, а данные без хранения тягать. Типа, скачал батч в оперативку, отдал нейронке, пока она его обрабатывает, качать другой.
Аноним 29/04/20 Срд 22:05:13 1671873132
Аноним 29/04/20 Срд 22:07:04 1671874133
>обучать нейронки с нуля
>писать на js
Аноним 29/04/20 Срд 22:09:37 1671876134
>>1671874
>Обучение нейронки на жсе налету с камеры телефона
>Врётии
Аноним 29/04/20 Срд 22:23:22 1671884135
>>1671853
>без хранения
А что за няронка и какой батч?
Уверен что обучение быстрее чем скачивание пойдёт?
Иначе хранить придётся
Аноним 29/04/20 Срд 22:28:07 1671889136
>>1671876
Ага, и код с телефона писать, конечно
Не, я не отрицаю, что на современных телефонах вполне можно запускать нейронку (квантованную, со спец архитектурой) и детектировать на видео (5 фреймов в секунду).
Но если у вас обучение для продакшена (и тем более ресёрч) на js - реквестирую кулстори.
Аноним 29/04/20 Срд 22:30:39 1671893137
> Иначе хранить придётся
Если батч помещается в память, то просто скачивать с запасом в один висящий в памяти батч.
Если обработка дольше, чем качать - просто ждём, пока в памяти лежит батч.
В против случае простои неминуемы.
Аноним 29/04/20 Срд 22:40:53 1671904138
Тут ещё надо понять что за данные.
Если эток акой-то сторонний сервис то может стоит задуматься надо ли вообще обучаться на лету, от ошибок-то никто не застрахован - выкатят они говно какое-нибудь однажды и похеришь ты свою нейронку обучив её на каком-то треше.
Может можно просто скачивать данные скопом и периодически до/переобучать на очищенных и обработанных новых данных?
Аноним 29/04/20 Срд 22:47:15 1671911139
>>1671904
Согласен.
У меня вариант простой, нужно брать данные из локалки института, в котором квартируется компания.
Походу, проще написать свой велосипед поверх sftp.
Аноним 30/04/20 Чтв 04:20:03 1672081140
>>1671690
Религия получается, когда обосравшуюся теорию пытаются починить
Аноним 30/04/20 Чтв 04:30:33 1672082141
>>1671815
> Кому-нибудь приходилось real-time получать данные с удалённой машины для обучения (мб хранилища на инстансе не хватает)?
Единственное, что я делал, это готовил данные в 2 потока, втупую без очередей

while(true) {
фьючер=подготовить_данные_в_отдельном_потоке()
train_on_batch_в_отдельном_потоке(данные)
данные=получить_фьючер()
}

Работало шикарно, единственное, пришлось заюзать numpy.memmap, чтобы данные не гонялись между потоками через медленную сериализацию/десериализацию. Поебался я знатно тогда, потому что не знал, что в питоне все настолько убого, что одна и та же переменная живет в разных адресных пространствах.
Можно замаунтить сетевую ФС и брать данные оттуда
Аноним 30/04/20 Чтв 07:03:08 1672112142
Аноним 30/04/20 Чтв 09:03:49 1672134143
Какие архитектуры могут эффективно генерировать картинки, если не GAN?
Аноним 30/04/20 Чтв 13:30:27 1672294144
Аноним 30/04/20 Чтв 13:45:14 1672315145
Аноним 30/04/20 Чтв 17:44:05 1672592146
Пиздец, где взять исходники для ROI слоя? Кто обладает инфой(репозы и т.д) пожалуйста поделитесь!
Аноним 30/04/20 Чтв 23:06:57 1672994147
8.jpg (146Кб, 1200x803)
1200x803
Нужна помощь, есть список игроков ~200к нужно для них вывести сегменты а-ля нищуки, нормичи, мажоры.
Цель сегментации - для каждого сегмента делать внутриигровые бонусы которые ну очень отличаются между сегментами.
РФМ - не предлагать ибо игроки игру часто дропают и возвращаются через полгода заливая много денег. Данные которые, есть по игрокам ревеня, длина сессии, внутриигровые покупки (даже гипер мажоры покупают дешевые расходники в игре) их количество и стоимость, лайфтайм игрока, да и по сути всё.
Что хочу у вас попросить, скажите о чём читать, покажите пример методов выделения сегментов в таких данных.
Аноним 30/04/20 Чтв 23:34:56 1673026148
Господа, правильно ли я понимаю что для переката из софтваре инжиниринга в ML нужен интелект уровня студентов мфти ?
Аноним 01/05/20 Птн 01:08:06 1673212149
>>1672592
это ты про РОИ-слои в прошлом треде спрашивал зачем они вообще нужны?
Аноним 01/05/20 Птн 02:07:20 1673273150
Прочитал статью, про то, что rnn бессмысленно использовать для предсказания котировок:
hackernoon.com/dont-be-fooled-deceptive-cryptocurrency-price-predictions-using-deep-learning-bf27e4837151
Но я так и не понял, почему? Если там предсказание отстает на день, то это же не критично?
Хотя я сам понимаю, что котировки зависят от множества внешних факторов и таким примитивным образом их предсказывать смысла нет.
А что насчет спортивных событий?
Аноним 01/05/20 Птн 02:50:09 1673284151
>>1673273
>Но я так и не понял, почему?
Потому что на предсказании "цена завтра примерно равна цена вчера" не заработаешь. Не говоря о том что для такого предсказания нужно секунд десять подумать просто, а не накручивать rnnы.
Аноним 01/05/20 Птн 04:48:51 1673296152
>>1673212
Ты выдумал, такого в тредах нету
Аноним 01/05/20 Птн 10:45:53 1673389153
>>1673273
>Но я так и не понял, почему?
У RNN память очень недолговременная, они вообще мало для чего подходят
Аноним 01/05/20 Птн 10:48:05 1673392154
>>1673273
>rnn бессмысленно использовать для предсказания котировок
Это все равно что предсказывать рулетку. Нужно либо делать сетку, которая постоянно читает новости и делает нужные выводы, либо скальпировать кратковременные отскоки/просадки, но там боты на крестах работают + нужен быстрый брокер с минимальной комиссией.
Аноним 01/05/20 Птн 14:02:44 1673530155
Придумано ли в интернете что-то более жалкое чем медиум с его уёбищными статьями за которые онни ещё и денег требуют?
Аноним 01/05/20 Птн 14:06:07 1673531156
>>1673530
в опере открывай с впном
Аноним 01/05/20 Птн 14:57:07 1673570157
>>1673026
Если ты о том, что это сложно, то ты слишком высокого мнения о них.
Мимофопф.
Аноним 01/05/20 Птн 14:58:24 1673572158
>>1673531
Да это через инкогнито режим легко обходится, смешон просто сам факт жидизма.
Аноним 01/05/20 Птн 17:10:18 1673761159
>>1672994
Сдохни, ублюдина. И твоё донатное мобилкоговно пусть тоже сдохнет.
Аноним 01/05/20 Птн 18:27:44 1673817160
Аноним 01/05/20 Птн 18:30:10 1673820161
>>1672994
> РФМ
Это рандом форест? Так как он как раз всё отлично покажет. Ты сам-то поделить людей можешь? Я вообще не понимаю суть задачи. Почему ты по сумме вливаний (или сумме вливаний на игро-час) не поделишь? Просто отсортируй всех и возьми слева и справа кучки по 10%/25%, а оставшийся центр назови середнечками
Аноним 01/05/20 Птн 19:32:41 1673851162
nb9IOhlCVSM.jpg (132Кб, 980x893)
980x893
>>1673820
Нет, всё намного проще, рфм - сегментация для недалёких которую можно сделать в 2 строки формулы в экселе.
Ой блять, как меня поплавило, может действительно по ревене ебануть 10й сверху и 25й снизу просентиль а остальное нормичи и ничего не изобретать. Ладно, спасибо что вразумил.
Аноним 01/05/20 Птн 19:59:17 1673882163
>>1673761
Пердед, плиз. Либо смирись с прогрессом, либо накрывайся простынёй и ползи в сторону кладбища уже.
Аноним 01/05/20 Птн 20:33:24 1673906164
15449096756860.jpg (524Кб, 2000x1593)
2000x1593
>>1665515 (OP)
Анон, чего я не понял?
Есть задача регрессии и перцептрон с одним скрытым слоем.
Обучающие и целевая переменная нормально распределены вокруг нуля с стд 1.

Проблема в том, что аутпут в основном либо ноль, либо больше нуля, отклонения в минус очень редкие и слабые.

Сначала грешил на функцию потерь, мол она не штрафует ошибки меньше нуля, но она mean(abs(true - pred)), проебаться негде.
Потом на активационную функцию, на скрытом слое: relu не возвращает меньше нуля и на выходной слой передаётся неотрицательный вектор.
Но на выходном слое обычная линейная функция и веса на нём инициализируются из распределения со средним 0, следовательно, должны домножить на отрицательное примерно половину элементов входящего вектора, а значить вывод должен быть плюс-минус симметричен.

Может я не понял что-то важное, но проблема в активационной функци скрытого слоя, потому что замена её наэкспоненциальный линейный юнит или даже тангенс делает аутпут симметричным, но более бредовым.

Почему релу приводит к преимущественно неотрицательным данным и где я проебался, что не могу этого понять?
На всякий случай: да, именно эту задачу, да, именно нейронкой. Цель - разобраться.
Аноним 01/05/20 Птн 20:46:10 1673915165
>>1673906
У abs градиент постоянный, либо +1, либо -1, попробуй l2.
Аноним 01/05/20 Птн 21:23:03 1673961166
>>1673915
Именно в этой задаче мне вредит большой прирост ошибки при неугадывании очень высоких или низких значений, поэтому оставил абс и положился на адам, который должен подобрать подходящий шаг.
Пробовал RMSE, результат почти такой же.
Только что попробовал MSE, результат как без корня, но хуже сходится (что ожидаемо).
Аноним 01/05/20 Птн 22:37:39 1674023167
>>1673961
Не знаю что у тебя проблемы вызывает, я с тренировкой на рандоме получаю следующее

вывод: [[-0.02384087 1.2834619 -0.4978276 0.7138977 -0.6753584 ]]
датасет: [[-0.8020217 1.67333502 -0.61778619 0.51033259 -1.61678442]]

То есть видно, что +- нормально перекос идет. На более уже не хватает бензина, потому что с рандомом сетка вынуждена тупо все запомнить

Это l2, с модулем примерно такой же результат
[[-0.43907866 -1.2598822 -0.3356747 0.44521597 -1.1117768 ]]
[[-0.43537199 -1.3014218 -0.54382092 0.43602512 -1.36578004]]

https://pastebin.com/m4sMnray

Скорее всего если ты считаешь через tf.mean, ты неправильно указал axis, в итоге вместо лоссов, направленных в разные стороны для каждого элемента батча, ты имеешь один лосс, который не несет уже никакой информации

То есть вот такая хуйня

def lll(p, t):
return tf.reduce_mean(tf.abs(p-t))
model.compile(loss=lll, optimizer=keras.optimizers.Adam())

возможно будет работать сильно хуже. А может и нет. Хуйня у тебя какая-то короче
Аноним 01/05/20 Птн 23:59:34 1674053168
[southpark]free[...].webm (10145Кб, 1280x718, 00:03:00)
1280x718
>>1673851
>>1672994
у вас тоже 1% большую часть кассы заносит?
Аноним 02/05/20 Суб 00:19:22 1674062169
Знающий анон, подскажи, пожалуйста - как лучше подступить к такой задаче, как распознавание, например, афиш для извлечения полезных данных - дата, имя и т.д.? Там же куча разных шрифтов, а, порой, и совсем лишних изображений.
Какой подход использовать, как обрабатывать изображения и т.д.
С твоей точки зрения как это лучше решать? Есть тессеракт, но он какой-то хреновый.
Аноним 02/05/20 Суб 00:50:03 1674074170
>>1673906
Проблема решена, дело в специфике данных.
Аноним 02/05/20 Суб 02:56:46 1674113171
>>1674053
Прям как у Парето, 20% игрунов делает 80% кассы.
Аноним 02/05/20 Суб 07:31:39 1674158172
>>1674074
Что, минусовые значения распознало как текст?
Аноним 02/05/20 Суб 07:33:18 1674159173
>>1674074
Надо было по первому посту догадаться, что ты мудилка, с которой общаться не стоит
Аноним 02/05/20 Суб 08:38:32 1674170174
>>1673389
А для чего они нужны то вообще? НЛП только?
Аноним 02/05/20 Суб 09:40:47 1674192175
>>1674170
В НЛП они в первую очередь от своей памяти наркомана-укурка страдают. Не нужны они особо, в НЛП их аттеншен зарешал. С теоретической точки зрения нужны, на практике не особо.
Аноним 02/05/20 Суб 16:22:08 1674480176
Снимок.PNG (747Кб, 1328x780)
1328x780
Аноним 02/05/20 Суб 16:28:20 1674484177
>>1674192
У аттеншна расход памяти квадратичный от длины предложения, а у рекуррентных - линейный, так что если на карточку не хочется раскошеливаться, а задача не сильно сложная, можно и рекуррентные использовать.
Аноним 02/05/20 Суб 23:05:51 1674900178
>>1674480
>машинное обучение
>линейная регрессия

проиграл с дебилоидов, которые обычный МНК называют невъебаться дата сцуенсом машинным абучением
Аноним 02/05/20 Суб 23:07:06 1674903179
>>1674900
Сам придумал - сам посмеялся
Аноним 02/05/20 Суб 23:17:22 1674923180
>>1674903
животное, с каких пор обычная регрессия относится к маш.обу? более того, типичный подход машин хуернинг макак - полностью забить хуй на причинно-следственные связи в дате, из-за которых ваши любимые регрессии могут быть просто несостоятельными.
Аноним 03/05/20 Вск 00:01:54 1675004181
Аноним 03/05/20 Вск 01:16:28 1675088182
>>1674158
Нет, просто процесс такой, что, положительные отклонения происходят в более-менее похожих условиях, а отрицательны более хаотичны. Очевидно, положительные отклонения сетка выучила раньше.
Аноним 03/05/20 Вск 06:42:11 1675162183
15881333372170.jpg (58Кб, 714x800)
714x800
>>1674900
>>1674923
Школота школотайд. Линейная регрессия и МНК это машоб, прикинь, петучок.
Аноним 03/05/20 Вск 09:40:55 1675194184
>>1674480
Котаны, в первой лекции говорится про метод "хирургического вырезания связей" (или как-то так), так вот, если в модели после обучения запустить обучение с повышенным коэфициентом Learning Rate, это не будет почти то же самое, что и вырезание связей? Ведь по сути, слабые связи, которые не сильно влияли на выход модели смогут переобучиться, просто без полного разрыва.
Аноним 03/05/20 Вск 13:45:09 1675342185
>>1675194
> метод "хирургического вырезания связей"
Пиздец, вся цена русскоязычным лекциям. Вместо нормальных терминов выдумывают какие-то канцелярские маняпереводы. По-русски это называется словом прунинг
>если в модели после обучения запустить обучение с повышенным коэфициентом Learning Rate, это не будет почти то же самое, что и вырезание связей
Нет, прунинг применяется для ускорения, а твоей хуйне вообще применение слабо можно придумать
Аноним 03/05/20 Вск 13:55:14 1675351186
>>1675342
>По-русски это называется словом прунинг
Ебать дебил, ты же даже не знаешь, о чём речь. Optimal brain damage/surgery
Аноним 03/05/20 Вск 13:56:46 1675354187
>>1675342
>прунинг
Хватит транслитерация, маня.
По-русски говори.
Аноним 03/05/20 Вск 13:59:06 1675359188
>>1675354
>транслитерация
Ха-ха, ок
Аноним 03/05/20 Вск 14:00:51 1675365189
>>1675351
Может это ты дебил, не думал об этом?
Аноним 03/05/20 Вск 14:27:06 1675385190
>>1675351
Но он прав, речь о прунинге. Раньше это по-разному называли, те термины что ты принес - из 90х, Хайкин, вот это все. Тогда с этой темой обосрались (кардинального улучшения результатов не добились), сейчас, спустя 20 лет, пошли на второй заход, лол.
Аноним 03/05/20 Вск 15:13:30 1675459191
4b6473a35c140a8[...].jpg (46Кб, 500x389)
500x389
Аноним 03/05/20 Вск 16:27:01 1675531192
>>1675385
Так прунинг не про улучшение, а про ускорение. Работает нормально
Аноним 03/05/20 Вск 18:06:59 1675635193
>>1675162
дебил блять, МНК придумали ещё когда понятия "машинное обучение" не существовало.

Вообще большая часть "машоба" это тупо прикладная статистика адаптированная для инженегров которые не понимают теорвера и бездубно крутят хуйню не понимая ее смысла
Аноним 03/05/20 Вск 18:40:20 1675654194
>>1675635
>теорвер
Так это говно не работает в реальности, только в голове матанопетушни.
Аноним 03/05/20 Вск 18:43:23 1675659195
1325786671574.jpg (8Кб, 200x191)
200x191
Аноним 03/05/20 Вск 18:59:18 1675671196
>>1675635
Мань, основные понятия любой науки формируются до создания этой самой науки. Наоборот невозможно. Представляю бляжь, сидишь такой, трешь янтарем о шерсть и думаешь - о бля, я электронику придумал. Понятно, что ты пришел повыебываться своим якобы эксклюзивным знанием о мнк, но попытки твои выглядят жалкими, а сам ты ничтожество.
Аноним 03/05/20 Вск 20:38:40 1675735197
Прунить, ребятушки, можно по разному.
Аноним 03/05/20 Вск 23:48:05 1675878198
152440232211536[...].jpg (16Кб, 400x300)
400x300
Аноним 03/05/20 Вск 23:50:08 1675879199
>>1675671
>электронику
Хехе, статику. Тащемто ни один вговнемоченый не знает что такое эл. ток.
Аноним 04/05/20 Пнд 08:13:14 1675944200
Что думаете о manifold learning?
Аноним 04/05/20 Пнд 12:25:51 1676061201
>>1675944
говно тупое зумиры матоноблядки зачем думать берёш сетку и всё устарело ахаха дед как в могиле
Аноним 04/05/20 Пнд 12:39:12 1676069202
>>1675944
Маняфолдинг жопеншмульцера
Аноним 04/05/20 Пнд 13:14:08 1676087203
>>1675385
Ну я просто знаю, что именно читает Воронцов - он именно что OBD упоминает. вообще у него пиздец устаревшая программа
Аноним 04/05/20 Пнд 13:17:41 1676091204
>>1676087
>Ну я просто знаю, что именно читает Воронцов
И, радостно припрыгивая, побежал писать мне "ебать дебил". Воронцов - хуесос, если вместо нормальной применимой в профессиональной среде терминологии начинает навязывать свои термины, как какие-нибудь уебанские совковые книги. Если ты с этим не согласен - ты сам такой же хуесос.
Аноним 04/05/20 Пнд 14:51:23 1676208205
153163198314903[...].png (262Кб, 700x675)
700x675
>>1676091
> в профессиональной среде
Аноним 04/05/20 Пнд 14:52:30 1676212206
>>1676091
> ыыыаа хуесос тварь мразь ыаа дебилы савки
Ты чего такой порвавшийся, в ШАД очень хотел но не взяли?
Аноним 04/05/20 Пнд 15:03:48 1676224207
>>1676208>>1676212
Ого как у воронцовоманьки не горит, в ход пошел гринтекст и боевые картиночки.
Аноним 04/05/20 Пнд 15:14:04 1676240208
>>1676224
Да хватит гореть, оно того реально не стоит
Аноним 04/05/20 Пнд 15:19:08 1676260209
>>1676240
Так не гори. У тебя по существу есть претензии?
Аноним 04/05/20 Пнд 15:24:09 1676266210
>>1676260
Сначала хотелось бы услышать что-то членораздельное от тебя, но для этого тебе сперва придётся охладить жопу.
Аноним 04/05/20 Пнд 16:05:44 1676301211
>>1676266
Такой большой у мамы вырос, а все еще троллишь на дваче
Аноним 04/05/20 Пнд 19:41:38 1676550212
Народ, вопрос, наверное, вызовет кучу хейта
Но сорян, если кого обижу
Короче, у меня наступает довольно ебанутое время - закачиваю вуз и думаю куда дальше.
За это время много где поработал - от Си для мк до геймдева. Также очень упорно учу Компутерное зрение. Понятно, что при таких скаканиях на хуях компетенции набралось не так много в кажой из области, но зато примерно понятно о чем в каждой из них речь
Мониторя вообще рынок понял, что пиздец хочу работать в RnD отделах по ИИ (асбстранкно, но я думаю понятно о чем речь).
ПОнятно, что такого хуесоса как я в свои 23 года туда никто не возьмет, поэтому хочу спросить у умных людей как развиваться, чтобы попасть туда рано или поздно (лучше раньше)
Бекграунд норм, бауманка, 3 года опыт работы, диплом по компутер вижну. Нейроночки знаю уже болие лимение - не вкатывальщик
Не кидайте камнями плз, лучше треда не нашел
Спасибо
Аноним 04/05/20 Пнд 19:53:03 1676575213
Скандал на конкурсе Kaggle: победитель сжульничал, алгоритм плохо оценивает шанс бездомных животных найти хозяев
https://habr.com/ru/news/t/484264/
Kaggle — система организации конкурсов по исследованию данных, принадлежащая компании Google — обнаружила мошенничество в результатах одного из своих конкурсов. Победителя конкурса отстранили от участия в дальнейших соревнованиях.

Kaggle регулярно организует конкурсы в сфере обработки данных и машинного обучения. Призы на этих конкурсах могут достигать десятков тысяч долларов. На прошлой неделе компания объявила, что команда-победитель конкурса, который состоялся в прошлом году и был посвящён улучшению работы сайта по поиску хозяев для бездомных животных, выиграла обманом.

По условиям конкурса участники должны были разработать алгоритмы прогнозирования скорости поиска хозяев для бездомных животных для сайта PetFinder.my. Алгоритм BestPetting, команды-победителя, оказался лучшим среди участников с почти идеальным счетом — 0,912 из 1,0. В награду команда получила $10 000, а её решение было внедрено в работу сайта. Однако через девять месяцев после конкурса выяснилось, что результаты команды были слишком хороши, чтобы быть правдой.

Бенджамин Миниксхофер, программист из Австрии, который тоже участвовал в конкурсе и занял шестое место, вызвался помочь компании PetFinder интегрировать алгоритм в работу сайта. При этом он обнаружил, что команда BestPetting использовала в разработке своего решения закрытые данные с PetFinder.my, что давало ей незаконное преимущество. Эти данные она замаскировала в своём коде. Кроме того, команда использовала полученные данные не для всех питомцев, а для одного из десяти, чтобы избежать абсолютно идеального результата и не вызвать подозрений. Способ обмана Миниксхофер подробно описал в статье на Kaggle.com. При этом в комментарии для Motherboard он подчеркнул, что без обмана команда оказалась бы на приблизительно сотом месте со счетом 0,427526.

«Очень печально, что такие блестящие профессионалы пошли на все, чтобы обмануть конкурс, целью которого было спасение животных, исключительно ради собственной выгоды», — отметил Энди Кох, основатель PetFinder.

Как пишет Motherboard, мошенничество — не редкость в соревнованиях Kaggle. Для некоторых участников, помимо денежных призов, очень важны звания Kaggle, например, Expert или Grandmaster, которые можно получить, победив в конкурсе. Многих в сообществе разработчиков шокировало то, сколько усилий команда затратила на свой обман, а также тот факт, что некоторые из членов команды уже имели высокие звания в Kaggle. Среди них оказался, например, Павел Плесков, у которого уже был титул Kaggle Grandmaster и который не раз побеждал в различных конкурсах. После того, как мошенничество BestPetting было обнаружено, Kaggle навсегда заблокировала Плескова. По информации Kaggle, «доказательства указывают на то, что он был ключевым лицом этой мошеннической кампании». В Twitter Плесков извинился от имени своей команды и отметил, что намерен вернуть призовые деньги PetFinder.my.

«Для меня речь шла не о деньгах, а, скорее, о том, чтобы стать номером один в рейтинге. Я надеюсь, что хотя бы некоторые из вас простят меня, и что другие участники будут учиться на моих ошибках».

В дополнение к потере своего звания Плесков также лишился работы в компании по разработке программного обеспечения с открытым исходным кодом H2O.ai, которая стремится приглашать на работу специалистов со званием Kaggle Grandmaster.

«Действия в отношении конкурса Kaggle, о которых нам стало известно, идут вразрез с ценностями компании. Мы провели расследование, и этот человек больше не связан с H2O.ai», — заявили в компании.

Этот скандал, как считает Бенджамин Миниксхофер, говорит о том, что Kaggle должна улучшить систему защиты от мошенников.

«Весь этот инцидент очень расстроил меня. Не только потому, что это подрывает легитимность соревнований Kaggle в целом, но и потому, что я потратил довольно много времени на исследование их решения и интеграцию его в работу сайта. Я уверен, что каждый, кто выигрывает деньги в конкурсе, должен публиковать открытый исходный код своего решения. Я не единственный, кто так считает, и я понятия не имею, почему этого всё ещё не делается».

Как указывает Motherboard, хотя сейчас в правилах Kaggle есть пункт о том, что решения для конкурса должны быть с открытым исходным кодом, это означает лишь то, что алгоритмы должны разрабатываться по лицензии с открытым исходным кодом, а не обнародоваться.

«Это лазейка в правилах, которую хозяева соревнований даже не замечают», — считает Миниксхофер. Внедрение новых правил, по его словам, «предотвратит подобные инциденты в будущем».
Аноним 04/05/20 Пнд 20:03:25 1676604214
>>1676575
Ну еще вспомни конкурсы с изменением вида земли со спутника за год, когда идеальную дату можно было "намайнить" с гугл карт. Много такого, да еще и без печки с кучей видеокарт к конкурсам сейчас не подойти.
Аноним 04/05/20 Пнд 20:07:26 1676615215
>>1676575
Красиво, а ведь могли и не раскрыть
Аноним 04/05/20 Пнд 21:13:05 1676677216
>>1676575
Это ж жопа полная, ты, допустим, честны участник и соревнуешься с наебщиками. Ладно, одного наебщика раскрыли раз в 100500 межгалактических лет. А так остальные толпы наебщиков подебителей остались.
Аноним 04/05/20 Пнд 21:14:44 1676679217
Вообще во всех конкурсах и соревнованиях побеждает всегда наиболее опытный наебщик. Либо самый опытный наебщик тренирует чемпиона, если сам по возрасту не проходит.
Аноним 04/05/20 Пнд 22:02:57 1676734218
unnamed.jpg (58Кб, 512x512)
512x512
Аноним 04/05/20 Пнд 22:46:08 1676762219
>>1676575
>Kaggle
Оверхайпнутое говно
Методы обучения без градиента Аноним 05/05/20 Втр 00:02:15 1676856220
Отличительной особенностью моей модели является то, что функция ошибки вычисляется с большим шумом, а градиент аналитически вообще не считается. Возник вопрос - а как ее обучать? Метод роя частиц не подходит - если из-за какого то перла функция ошибки окажется маленькой, то частицы резко рванут туда, хотя в среднем ошибка может быть там большая.метод отжига или эволюционку не предлагайте, у меня много времени, но не настолько
Аноним 05/05/20 Втр 00:22:47 1676870221
>>1676575
Свежие новости подвезли. Ещё расскажи, что его банили за то, что он майнил на кернелах кегла.
>>1676856
REINFORCE?
Аноним 05/05/20 Втр 00:43:20 1676890222
>>1676856
>если из-за какого то перла функция ошибки окажется маленькой, то частицы резко рванут туда
Инерцию побольше поставь, тогда не рванут.
А так ищи способ сделать функцию дифференцируемой, с фреймворками типа tensorflow это не так сложно заменить разрывные функции их гладкими аналогами
>метод отжига или эволюционку не предлагайте, у меня много времени, но не настолько
На кластере видюх считай
Аноним 05/05/20 Втр 07:01:04 1677028223
>>1676890
У меня функция и так непрерывна, просто градиент ну очень уродский. У меня стохастическая сеть, и в качестве функции ошибки я беру метрику между целевым распределением и полученным. При взятии градиента от этой штуки у меня всплывают несчитаемые величины. Например коррелятор градиента и еще одной стремной величины. Т.е для того, чтобы посчитать градиент, мне надо его знать. Это обходится, но на каждый шаг решать стремное уравнение не вариант - оно решается только численно, а численно решать уравнения со средними, корреляторами и прочей лабуденью - гиблое дело.
Аноним 05/05/20 Втр 07:03:42 1677029224
>>1676870
А это работает с генеративными сетями, которые не получают ничего на вход?
Аноним 05/05/20 Втр 08:48:49 1677064225
>>1676550
ищи позиции типа intern/junior data scientist
Аноним 05/05/20 Втр 09:40:16 1677082226
>>1676856
>>1677028
Сдается мне, какой-то велосипед ты изобрел, и давно есть нормальные алгоритмы, решающие твою задачу.
Аноним 05/05/20 Втр 09:45:43 1677087227
>>1677029
Сомневаюсь. А что генерировать надо и почему нельзя воспользоваться стандартными моделями для генерации картинок/текста?
Аноним 05/05/20 Втр 10:30:16 1677093228
>>1677087
Генерить надо квантовые состояния, на квантовой же компе(да, я тот дед с паравозом жопенщульцера). Стандартный метод не подходит, потому что задача разработать рабочий метод для хуевого случая. Вкратце есть хуевый нейропроцессор, но он прям очень быстро считает - вычисляет одну реккурентную сеть из 1к нейронов за <15 мкс. Но очень хуево. Есть идеи в том, что это очень хуево можно преодолеть и получить в перспективе охует какой быстрый нейропроцессор.
Аноним 05/05/20 Втр 11:35:16 1677144229
>>1677093
Опять ты со своей физикой, тебе же сказали - упразднена, теперь наука это только ковыряние гиперпараметров у бустенхов и сеток.
Увольняйся из своего НИИ ХУЯ лучше и иди в какой-нибудь стартап распознавать котов на фото.
Аноним 05/05/20 Втр 11:48:36 1677171230
>>1677028
>При взятии градиента от этой штуки у меня всплывают несчитаемые величины
Ну NaNы это как правило численный косяк, где-то что-то нужно нормализовать
Аноним 05/05/20 Втр 11:56:05 1677186231
>>1677093
Падажжи. 1к нейронов это же миллион-другой флопсов, что тут охуенно быстрого?
Аноним 05/05/20 Втр 12:18:23 1677216232
3890374.png (14Кб, 861x158)
861x158
Хз куда именно это постить. В общем, такое дело: надо определить дисперсию системы по набору из данных (пример на пикриле)
У нас есть набор неких параметров из нескольких независимых исследований. Можно найти дисперсию каждого отдельного параметра, но как найти дисперсию всей системы? Не складывать же их
Аноним 05/05/20 Втр 12:30:15 1677237233
>>1677216
Если система это f(параметры), можешь вычислив дисперсию параметров с помощью монте-карло вычислить дисперсию системы
for i=1:10000
a1=random(матожидание_а, дисперсия_а)
a2=random(матожидание_а, дисперсия_а)
...
a3=random(матожидание_а, дисперсия_а)
fs.append( f(a1,a2,a,3,a4) )
end
print(std(fs))

Лучше график нарисовать, а то мало ли у тебя распределение не нормальное нихуя. Но скорее всего f тебе известна (например, линейная комбинация параметров), поэтому ты можешь вычислить все по формулам для дисперсии и матожидания
Аноним 05/05/20 Втр 12:33:37 1677242234
15874380330630.gif (170Кб, 326x281)
326x281
>>1677216
А вот и ежедневный зумер вкатывальщик, не могущий нагуглить расчет дисперсии многомерной случайной величины.
Аноним 05/05/20 Втр 14:12:30 1677407235
Такой вопрос назрел. Могут ли ваши нейроночки в комплексные числа? Т.е задача сформулирована как y = f(x1,
..,x20), где y и все иксы - комплексные числа. Погуглил, предлагают разбивать на компоненты (re и im) и в таком виде подавать. А как из этой хуйни потом опять собирать комплексные числа?
Аноним 05/05/20 Втр 14:21:46 1677432236
>>1677407
все настолько плохо? z = re z + i im z
Аноним 05/05/20 Втр 14:34:15 1677476237
>>1677432
Т.е можно разбить задачу вида y = f(x1,...x20), на две: re(y) = f(re(x1),...,re(x20)) и im (y) = f(im (x1),...,im (x20))?
Аноним 05/05/20 Втр 14:59:14 1677524238
>>1677407
Могут, просто указываешь тип данных tf.complex или какой-то еще
>Погуглил, предлагают разбивать на компоненты (re и im) и в таком виде подават
Это не всегда работает, потому что комплексные числа складываются как (re1+re2)+i(im1+im2), но перемножение идет уже по другим правилам. Поэтому если у тебя комплексные данные - это одно, а если комплексные веса - это уже совсем другое
Аноним 05/05/20 Втр 15:16:08 1677565239
>>1677476
Только если f линейная. Иначе нет.
Аноним 05/05/20 Втр 17:01:23 1677731240
>>1677242
Разве это не классика матстата? Нам рассказывали.
Аноним 05/05/20 Втр 18:57:16 1677955241
>>1677028
Метрику? Какую метрику? Что ты вообще обучаешь? Какая функция потерь? Почему ты надеешься на помощь, при этом не рассказывая ничего о задаче?
Аноним 05/05/20 Втр 19:57:57 1678040242
>>1677242
Если тебе интересно нихуя не интересно канешн, но все же высру это сюда я не "вкатываюсь" а решаю одну из ВУЗовских говнозадачек

По теме >>1677216
Написал свой говнокод для поиска ковариационной матрицы и он вернул мне везде 0 (лол) кроме основной диагонали, на которой таки красуется дисперсия по конкретным выборкам
https://ideone.com/zEgpXm
Потом я забил хуй, читернул и заюзал np.cov на транспонированной матрице. Но вопрос, почему первый вариант кода нихуя не работает стоит открытым
Аноним 05/05/20 Втр 20:46:08 1678113243
>>1676856
>>1677028
Попробуй другую задачу решать. То есть эта задача математически правильная, но вычислительно сложная - ну и хуй с ней, сформулируй что-то приблизительно похожее, но чтобы считать было легче.
Аноним 05/05/20 Втр 22:05:43 1678219244
>>1671421
Да, а еще можешь на кегле посидеть
Аноним 05/05/20 Втр 23:03:08 1678267245
>>1671421
>Во всех крупных компаниях так?
Везде ресерчем занимается минимум людей, потому что мало кто может.
Аноним 06/05/20 Срд 22:07:47 1679112246
Народ, а можно ли как-нибудь пройти слушателем курсы шада? не то что в открытом доспуте
Сам туда поступать и времени не очень много (а то пишут что по 30 часов в неделю надо учиться, что при имеющейся работе многовато) и в целом интересуют лишь некоторые курсы, а не вся программа
Или у кого то можно их подрезать?
короче соре, если вопрос тупой
Аноним 07/05/20 Чтв 09:02:37 1679344247
>>1679112
Можно быть вольнослушателем. Спроси у кураторов шада как им стать.
Аноним 07/05/20 Чтв 16:28:16 1679830248
image.png (33Кб, 547x465)
547x465
Сап /pr/, можете помочь очередняре с проблемами по лабкам? Суть такова: нужно построить нейронку из одного нейрона (!), для обычной бинарной классификации. На вход дается два feature — координаты X1 и X2, на выход один класс — "-1" или "1". На графике видно как эти точки явно разбиты (синие это класс -1). Думал что проблема будет легчайшая.
Я пытался сделать это в Keras:

model = Sequential()
model.add(Dense(1, input_dim=2))
model.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy'])

Так вот, она нихуя не фитится. Это не проблема с подачей данных, я три раза перепроверял. В зависимости от функций активации она либо идет вниз с 0.3 accuracy до 0.0, либо остается на 0.5, с софтмаксом, как-будто нейронка просто бросает монетку каждый раз. Loss, activation, epochs, optimizer — я не нашел работающи параметры .
Мне помог одногруп, но он написал на pytorch, как-то вот так:

class Net(nn.Module):
def __init__(self):
super().__init__()
self.fc1 = nn.Linear(2,1)

def forward(self, x):
x = self.fc1(x)
return x

Я не разбираюсь в этом фреймворке, но у него она обучилась за 3 эпохи. Вообще без проблем. Я гуглил, nn.Linear и Dense должны работать одинаково. Но я видимо все равно как-то не так описал модель на Keras.
Поэтому пошу помощи у анонов.
Аноним 07/05/20 Чтв 16:32:51 1679839249
>>1679830
Метод опорных векторов из склерн.
Аноним 07/05/20 Чтв 16:35:10 1679844250
>>1679839
Вот именно что нужна нейронная сеть, классификаторы это была первая лаба. Руки связаны.
Аноним 07/05/20 Чтв 16:42:46 1679854251
>>1679830
линейная регрессия + функция активации = логистическая регрессия
Аноним 07/05/20 Чтв 16:50:57 1679867252
Аноним 07/05/20 Чтв 16:51:50 1679868253
Аноним 07/05/20 Чтв 17:33:42 1679911254
Untitled.png (88Кб, 1676x947)
1676x947
Что тут написано?
Аноним 07/05/20 Чтв 17:53:42 1679939255
Аноним 07/05/20 Чтв 19:16:11 1680043256
>>1679830
Твой лосс с лэйблом -1 работать на будет, 25% в тест отправлять слишком жирно, фиксированный рандомстейт тоже может быть источником проблем
Аноним 07/05/20 Чтв 19:24:20 1680055257
image.png (15Кб, 425x308)
425x308
>>1680043
Ну вот допустим с test_size = 0.1, другим random_state, и с переименованным лейблом. Бля, а может мне надо аутпут настроить не как 0 и 1, или -1 и 1, а как [0, 1] и [1, 0]? Я уже не знаю, поможет это или нет.
Аноним 07/05/20 Чтв 19:39:48 1680074258
>>1680055
>>1679830
Бля, я слепой, у тебя тут нет активации на выходе сетки.
Dense(1, input_dim=2, activation='sigmoid') это поставь, все норм будет
Аноним 07/05/20 Чтв 19:59:21 1680099259
>>1679911
Математическая постановка задачи обучения метода опорных векторов для случая двух классов, её двойственная задача и решающее правило.
Аноним 07/05/20 Чтв 22:34:20 1680293260
Я тот анон, что в прошлом треде писал, что линукс не нужен. Я ставлю убунту из-за nccl. вы победили
Аноним 07/05/20 Чтв 23:51:44 1680367261
>>1680074
Лучше особо не вышло. На 100 эпохах это ужасный результат. Ладно, аноны, спасибо, пойду переписывать лабу одногрупа.
Аноним 07/05/20 Чтв 23:52:00 1680369262
image.png (5Кб, 666x59)
666x59
>>1680367
Забыл прикрепить, ну и хуй с ним.
Аноним 08/05/20 Птн 06:13:48 1680495263
>>1680293
>nccl
Для тензорфлоу он не обязателен, плюс есть неофициальные бинарники для винды.
Аноним 08/05/20 Птн 10:30:37 1680562264
image.png (28Кб, 1255x231)
1255x231
>>1680367
поставил batch_size=2, зафиксировал хуевый сид, а потом ноет, что у него 0.87 точности (на 25 блять объектах) и это ужасный результат.
Аноним 08/05/20 Птн 14:53:41 1680831265
000000000000000[...].jpeg (91Кб, 529x600)
529x600
0-lb33-wrpc.jpg (171Кб, 800x1200)
800x1200
Помогите фетишисту вкатиться в машинное обучение.
Есть два пака фоточек, на одном тянки в колготочках, на другом с голыми ношками.

Задача: научить сеть отвечать на вопрос: "Эта тян в колготках?"
Аноним 08/05/20 Птн 18:14:42 1681176266
>>1680831
Задача простая, но я за такое беру 80к в неделю
Аноним 08/05/20 Птн 19:14:32 1681309267
>>1681176
>Задача простая, но я за такое беру 80к в неделю
Кого ты обманываешь, это твоя месячная зарплата.
Аноним 08/05/20 Птн 19:25:41 1681332268
>>1680831
Что может быть хуже колкоточек. Этот ебучий материал. Фу.
Аноним 08/05/20 Птн 21:20:32 1681520269
Нейропетухи, под шконку
Аноним 08/05/20 Птн 21:35:34 1681536270
15878009596801.jpg (1884Кб, 3024x4032)
3024x4032
>>1681332
Скорее всего ты нормис и тебе не понять, но у меня шишка колом, когда вижу этот материал на тянскихх ногах.

>>1681176
Я к вам за советом пришел. Будь у меня 80к я бы снял шлюх, а на сдачу купил бы им колготочки.
Аноним 08/05/20 Птн 21:54:16 1681562271
>>1680831
нейронная сеть, классификация изображений, туториал
Аноним 08/05/20 Птн 22:43:16 1681632272
>>1681536
Скорее всего нормис из вас двоих как раз ты
Аноним 08/05/20 Птн 22:50:05 1681639273
Почему в обычных автоэнкодерах проблемы с регулярностью скрытого представления, и типа VAE нужны чтобы эту проблему пофиксить, когда как у PCA всё в порядке с регулярностью внутреннего представления?
Аноним 09/05/20 Суб 00:11:24 1681697274
>>1681639
Потому что линейное преобразование, многомерный аналог растяжений-поворотов-проекций, там во многом сохраняется эта регулярность, не знаю, как это математически сформулировать
Аноним 09/05/20 Суб 00:13:49 1681700275
>>1681536
>этот материал на тянскихх ногах.
Местные видят чулочки толька на ногах их научруков по математике Михаилов Эдуардовичей.
Аноним 09/05/20 Суб 02:46:45 1681769276
>>1681639
>в обычных автоэнкодерах проблемы с регулярностью скрытого представления
Чего? Что за "регулярность"?
Аноним 09/05/20 Суб 09:50:42 1681839277
>>1680495
ох, я только вынырнул спустя два дня погружений. Ставлю для pix2pixhd распределенных. Вроде все ставлю правильно на минимальную убунту 18.04. - миниконда, Cuda + дрова, cuDnn, nccl, потом numpy, pytorch, Dominate, scipy, tensorflow (нужен для логов).
И не работает. Может кто сталкивался- при параллельном обучении на двух видеокартах скорость меньше, чем при обучении на одной, при любом батче- что 2 (как написано в оф мануале), что 4, что 8. Обучение как ьудто идет по очереди то на одной видюхе то на второй. А потом внезапно комп подвисает. Или подвисает сразу же и выключает комп, если задать нечетное количество слоев генератора.
О невозможности запустить ни на линукс, ни на винде Apex я уже молчу. Сижу думаю, что делать с двумя видюхами. ну как бы никто не говорил, что обучение паралллельное будет поддерживаться. Буду писать на гитхаб.
Аноним 09/05/20 Суб 09:54:51 1681842278
Аноним 09/05/20 Суб 10:27:58 1681855279
Скоро закончу Яндекс практикум и тоже вкачусь в ваш тред
Вот так, ds теперь доступен всем, у кого есть деньг
Аноним 09/05/20 Суб 11:10:05 1681868280
>>1681855
Сюда только после ШАДа можно, через 2 года ждем тебя.
Аноним 09/05/20 Суб 12:53:56 1681931281
>>1681839
учи на одной, прирост на паралельном не значительный по вермени, просто батч раскидывается по двум картам, и это дает задержки
Аноним 09/05/20 Суб 14:35:21 1682086282
>>1681868
Так я же не в ml, а в ссаную аналитику и ds
Хорошо
Аноним 09/05/20 Суб 16:15:17 1682181283
>>1681931
я подумал также, даже встречал статьи в инете, буквально пару по запросу "slow multigpu traning". Подлые жиды из нвидии про этот недостаток при батче маленьком не говорили. И раскидаю сиськи и письки грудь и таз на две модели и буду учить "параллельно", все равно в одну модель с дефолтными параметрами вся инфа не влазила за раз, очень хромает четкость- получается оче размыто, а больше параметров уже не влезает в видеопамять.
Аноним 09/05/20 Суб 18:51:30 1682296284
>>1682181
Я тебе итт писал, что тренировка на двух GPU это бред.
Аноним 09/05/20 Суб 19:47:57 1682344285
15882364011230.jpg (872Кб, 971x1080)
971x1080
Фетишист-кун >>1680831 репортинг ин.
По вашим советам начал ковырять туториалы.
Вот вроде как классика с кошками и собаками:
https://keras.io/examples/vision/image_classification_from_scratch/

В итоге словил затык в самом начале, на этапе подготовки датасета:

AttributeError: module 'tensorflow.keras.preprocessing' has no attribute 'image_dataset_from_directory'

Немного погуглил - этот модуль вроде как входит в тензорфлоу, но почему-то у меня его нет. Тензор флоу ставил через докер ветка tensorflow/tensorflow:latest


Аноним 09/05/20 Суб 19:56:17 1682370286
>>1682344
Еще смотрел Созыкина, разжевывает хорошо, но его код какую-то старую тензорфлоу.
Аноним 09/05/20 Суб 20:11:40 1682399287
>>1682344
https://github.com/keras-team/keras-io/issues/12
Пиздос, я сгорел.
Почему это ваше программирование такое говно?
Зачем вообще выкладывать в сеть туториал который не работает?
Аноним 09/05/20 Суб 20:43:40 1682430288
>>1682399
>Зачем вообще выкладывать в сеть туториал который не работает?
Чтобы горели такие зумеры-вкатывальщики как ты.
Аноним 09/05/20 Суб 20:55:03 1682444289
146947423115807[...].jpg (51Кб, 301x472)
301x472
15876438393742.jpg (11Кб, 256x240)
256x240
15876438393763.jpg (7Кб, 256x240)
256x240
>>1682344
>>1682399
Я тоже полтора года назад ебался. Мне просто повезло, что туториалы были актуальнее и мне получилось с первого раза запустить датасет с фасадами прямо в браузере. Тут то я и потер руки и стал копать гитхаб и ебать гугл "как включить код питон".
Если тебе нужна именно одна цель - сделать ноги в колготах- то.
1. Определись с видеокартой. Без видюхи с 8 гб видео я бы не влезал в pix2pix cycle gan. А мы будем запускать сразу две модели, так что разрешение будет тоже аховое- где то 256 на 8 гб видяхе и 512 на 11гб, и то если повезет. Не жди хайреза. Прочие характеристики не так важны. На процессоре даже не пытайся. А времени в выделенных серверах в онлайне не хватит, скорее всего, и будет ебля с постоянным реэкспортом модели по истечению выделенного для работы времени.
2. Определись- ты идешь учиться прогать или сделать колготы. В любом случае тебе нужен будет датасет на 5000-10000 фото. На меньшем ты соснешь. И как его получить- вручную качать или научиться запускать скрипт с гитхаба по выкачиванию определенных картинок- две большие разницы.
А затем, что у тебя была именно тренировка, а не пустое прокачивание ненужной инфы через видяху, нужно будет научиться вырезать именно те участки картинок которые нужно обрабатывать. Yolo3detector тебе поможет, но это мы забежали вперед.
Сразу скажу, что я не буду тебе расписывать подробно, потому что точных ссылок мне искать лень, а ты научишься искать нужную инфу.
1.0. Тебе нужно установить cuda от нвидии. Ставь 10.2 Если ты справишься, то у тебя есть шанс.
1.1. Тебе понадобится интерпретатор питона. Советую установить miniconda3, т.е. с третьим питоном на борту. Затем ты будешь запускать Anaconda Powershell Prompt (miniconda3) и работать с кодом ты будешь там. Впереди у тебя веселейшая ебля с path.
1.2. Когда ты все же разберешься с туториалом и запустишь у себя фасады и обрадуешься результату, советую тебе забыть это и скачать pix2pix cycle gan. Там ты почти не будешь читать код, ты будешь учиться запускать чужой код у себя- а это значит, что для чужого кода ты должен будешь научиться разворачивать виртуальную среду, чтобы все нужные для работы кода зависимости не путались (я не научился таки, как и пользоваться докером, позор мне). Это сэкономит кучу времени, если ты решишь потом запустить какую-то старую вещь у которой свои старые зависимости, как у твоего рассматриваемого кода. Возможно, что для твоих целей лучше подошел бы pix2pixHD, но для винды в нем нужно будет исправить самомоу некоторые ошибки из-за того что он предназаначен для линукса. Но, они таки могут быть исправлены, как и все ошибки, если ты будешь гуглить их. ГУГЛИ ОШИБКИ.
1.3. В эту виртуальную среду ты поставишь зависимости- сторонние куски кода, которые используют программисты чтобы не изобретать свои велосипеды для стандартных функций типа ресайзнуть картинку и вырезать по координатам. Они нужны для работы кода. познакомься - это установщик зависимостей pip. Pip list, pip install например numpy, pip uninstall tensorflow и потом pip install tensorflow==1.15.0 станут твоими друзьями.
1.4. Когда ты научишься запускать код pix2pix cycle gan и его просмотрщик, можешь начинать учиться запускать детектор yolo. Точнее тренировать. Ты, из скачанного массива возьмешь 500 картинок с колготам и разметишь его вручную на microsoft/VoTT, чтобы yolo смог обучиться на примерах искать твои колготы и голые ноги. Затем ты напишешь свой код с помощью инета, конечно, который нарежет тебе твои ноги - в одну папку голые, в другую колготы. И затем, ресайзнув свои ноги до нужного размера, ты зауснешь их в cyclegan и может быть, спустя несколько дней тренировки в игры нипаиграть он выдаст тебе результаты, от которых тебе уже не захочется дрочить, а только делать новые датасеты.
Ну вот когда ты сможешь делать весь список быстрее, чем читаешь этот текст, тогда у тебя начнет получаться результат, на который будет не стыдно пофапать.
Аноним 09/05/20 Суб 20:58:29 1682447290
image.png (95Кб, 935x707)
935x707
>>1682399
хуле горишь, деб. вот твоя функция
Аноним 09/05/20 Суб 21:49:49 1682530291
>>1682444
Спасибо за такой развернутый ответ. Честно даже не ожилал здесь получить такую простыню.

>1. Определись с видеокартой.
С видюхой у меня хреново. На моей тачке gtx1050 ti, это совсем не годится?

>2. Определись- ты идешь учиться прогать или сделать колготы.
Думаю одно без другого невозможно. Как минимум мне потребуется прокачаться до уровня продвинутого нуба.

Алсо что значит сделать колготы? Думаешь нейронка сможет одеть голую тян в колготки? Боюсь результат будет уровня Сутулый Акела.
Так-то изначально я планировал парсить фап-контент из ВК.

>1.1. Тебе понадобится интерпретатор питона
А обычный голый питон чем плох?

Вообще главную проблему при запуске чужого кода вижу в том, что никто не пишет какие нужны зависимости.

>>1682447
>хуле горишь, деб. вот твоя функция
В документации есть, а на практике ошибка. Вон даже какой-то хуй из Яндекса написал автору туториала:
https://github.com/keras-team/keras-io/issues/12

Аноним 09/05/20 Суб 21:51:16 1682533292
photo2020-05-09[...].jpg (60Кб, 512x512)
512x512
>>1682530
Сутулый Акела отклеился
Аноним 09/05/20 Суб 21:58:07 1682540293
>>1682530
>В документации есть, а на практике ошибка
pip install tf-nightly
Аноним 09/05/20 Суб 22:11:30 1682555294
>>1682530
>С видюхой у меня хреново. На моей тачке gtx1050 ti, это совсем не годится?
Да. Слишком мало видеопамяти.
>А обычный голый питон чем плох?
Ничем. На самом деле если ты новичок, то не надо ставить анаконду. Она нужна для того, чтобы с была возможность иметь разные версии питона без заморочек.
Аноним 09/05/20 Суб 22:44:12 1682581295
>>1682444
>Задача: научить сеть отвечать на вопрос: "Эта тян в колготках?"
>Выдумал какую-то генерацию ног в колготках и рассказывает ахуительные истории про pix2pix cycle gan, yolo
Что не так с этим тредом?
Аноним 09/05/20 Суб 22:57:49 1682601296
1469003336c51di[...].jpg (62Кб, 952x607)
952x607
А применяют ли нейросети для криптографии?
Есть отечественные ГОСТы на хешфункцию и непосредственно алгоритм шифрования. Ходят слухи, что в этих ГОСТах заложен бекдор. Возможно ли обучить нейросеть на поиск этого бекдора?
Аноним 09/05/20 Суб 23:07:23 1682613297
>>1682581
а бля. я просто все уже вижу в своем сраном затуманненом зрении. Тогда чувак >>1682530
ничего тебе не понадобится кроме части про yolo. Там не так много зависимостей. Ну или любой другой детектор. и видюхи тебе хватит твоей.
Аноним 09/05/20 Суб 23:12:52 1682620298
>>1682613
Зачем ему yolo, если достаточно унылого классификатора. Достаточно mobilenet для keras взять
А старость туториалов решается установкой старой версии tf+keras
Просто если для такого требуются консультации, поциента придется за ручку тащить, нахуй надо
Аноним 09/05/20 Суб 23:58:32 1682665299
>>1682601
>Возможно ли обучить нейросеть на поиск этого бекдора?
Скорее всего нет, слишком хороши современные хешфункции.
>А применяют ли нейросети для криптографии?
Гугли neural cryptography (выглядит там все довольно грустно)
Аноним 10/05/20 Вск 11:21:50 1682920300
Фетишист-кун опять на связи.
Обучил нейроночку по туториалу с котами и собаками. Точность вышла чуть более 80%
Думаю нужно больше данных для обучения.
Аноним 10/05/20 Вск 12:12:00 1682973301
Почему в задачах классификации мы просто берём класс с наибольшей вероятностью? Правильней же бросать монетку с соответствующими вероятностями и смотреть что выпадет.
Аноним 10/05/20 Вск 14:35:15 1683137302
>>1682920
Добавь аугментаций
>>1682973
По построению, модель имеет вид a(x) = sign(<x, w>). И почему правильнее будет бросать монетку?
Аноним 10/05/20 Вск 14:46:03 1683157303
>>1683137
> модель имеет вид a(x) = sign(<x, w>)
Я про многомерную классификацию с логлоссом и софтмаксом на выходе
> почему правильнее будет бросать монетку?
Ну а как если это вероятности классов. Если у нас, к примеру, модель предсказывает в тысяче случаев вероятность класса 80% то это означает что из этой тысячи этого класса примерно 800, а не 1000, как мы будем предсказывать если будем просто всегда выбирать максимум по вероятности.
Аноним 10/05/20 Вск 14:48:36 1683160304
>>1683157
Ты похоже вообще не понимаешь, что есть вероятность применительно к данным. Какая монетка, чё несешь-то
Аноним 10/05/20 Вск 14:53:52 1683168305
15621445076610.jpg (41Кб, 811x456)
811x456
Не нашел где еще спрашивать. Есть задача, по набору параметров - определять фрод во входящем траффике. Один из параметров имейл, известно что у фрода в 95% случаев имейл выглядит так - gasdd2@bk.ru Читал что есть какие-то цепи маркова, но нихуя не пробовал, т.к. не нашел инфы о практическом применении. Может есть какие-то либы для R или python которые на входе будут принимать вектор таких емейлов и выдавать вероятность того что это не бессвязные символы?
Пикрандом
Аноним 10/05/20 Вск 14:58:32 1683177306
>>1683157
>Если у нас, к примеру, модель предсказывает в тысяче случаев вероятность класса 80% то это означает что из этой тысячи этого класса примерно 800, а не 1000
Не означает же. 80% это не реальное распределение объектов, а наша апостериорная оценка.
Аноним 10/05/20 Вск 15:15:57 1683204307
>>1683168
Скорее всего, тебе предлагают какую-нибудь перплексию считать, но имхо, это хуета.
Попробуй просто разбить имейл на n-граммы и в логистическую регрессию запихнуть.
Аноним 10/05/20 Вск 15:17:39 1683207308
Спасибо, буду искать, читать.
Аноним 10/05/20 Вск 15:17:52 1683208309
>>1683168
Я бы взял базу славянских фамилий и имен (ну и не славянских тоже, в идеале), перегнал бы их в латиницу и определил бы вхождение данных имен/фамилий в email (если входит - то некая группа 1; если входят такие как "John Doe", "Иван Иванов" и т.д. - некая группа 2а чуть более подозрительных; если вообще ничего нету подходящего - некая группа 2б чуть более подозрительных). Не уверен, что использование машинного обучения позволило бы получить более высокую эффективность в сравнении с этим методом, хотя это просто мое мнение.
Аноним 10/05/20 Вск 15:23:57 1683218310
>>1683208
Словарный поиск - мне прямо после постановки задачи предложили это. Но жизня это жизня и человек который ставит задачу не смотрит в исходные задачи. Половина имейлов выглядит так konfeta11@bk.ru
dragon1960@jbb.ru
Я придя сюда надеялся на более легкий выход, типа либа "vasha_taska_gotova_ser", но пока последую совету этого анона
>>1683204
Аноним 10/05/20 Вск 19:11:14 1683433311
Аноны, можете посоветовать какой-нибудь курс по основам МЛ?
Аноним 10/05/20 Вск 19:34:48 1683458312
>>1683433
открытый курс от ods
Аноним 10/05/20 Вск 21:47:07 1683583313
за правильный ответ нужно увеличивать вес?
Аноним 10/05/20 Вск 23:14:47 1683619314
>>1683583
Зависит от функции потерь.
Аноним 10/05/20 Вск 23:52:20 1683638315
>>1683160
Почитай что-нибудь из классической статистики и тервера, полезно.
>>1683177
> 80% это не реальное распределение объектов, а наша апостериорная оценка
Ну у нас не абы какая модель а зафиченная под логлосс (а следовательно и под KL). Значит наше распределение должно быть близко к настоящему.
Аноним 11/05/20 Пнд 07:49:45 1683720316
Хочу научиться понимать как работает нейросеть, но в школе забивал хуй на математику. Что читать, чтобы постепенно научиться?
Аноним 11/05/20 Пнд 10:28:05 1683767317
Аноним 11/05/20 Пнд 13:09:32 1683860318
>>1681839
я апекс даже на колабе без проблем запускаю, а у него невозможно
Аноним 11/05/20 Пнд 20:21:15 1684337319
>>1683860
ну подскажи пожалуйста, я на винде pix2pixHd пытаюсь запустить. Он начинает выводить при заупске какой-то постоянно делящийся на два каждый шаг градиент, пока он там не поделит на ноль сам себя и не зависнет. Убунту аналогично. Вот теперь из за тебя пойду опять ебаться.
коммент из доков апекса-
-Windows support is experimental, and Linux is recommended. pip install -v --no-cache-dir --global-option="--cpp_ext" --global-option="--cuda_ext" . may work if you were able to build Pytorch from source on your system Как строить модуль самому? pip install -v --no-cache-dir . (without CUDA/C++ extensions) is more likely to work. If you installed Pytorch in a Conda environment, make sure to install Apex in that same environment. ага, щас посмотрю, может нужно conda install делать.
Аноним 11/05/20 Пнд 20:26:56 1684341320
Графические модели устарели? Или и сейчас где-то эффективней чем блэк боксы?
Аноним 11/05/20 Пнд 21:54:01 1684393321
>>1682344
Блять, ты хоть понимаешь что для вката нужно для начала хотя бы на быдлооуровне освоить Питон? И основные для тебя либы (помимо keras): numpy, pandas, matplotlib?
Ты сходу хотел нажать клавишу и чтоб оно забурлило, закипело и высрало тебе отсортированный массив с фотками?
Аноним 11/05/20 Пнд 22:08:07 1684408322
>>1684393
Так у него в итоге все норм (разве что данных маловато), ты обосрался.
Аноним 12/05/20 Втр 00:03:51 1684515323
>>1684393
хуйня в том, что не всегда нужно понимать чтобы просто повторить.
Аноним 12/05/20 Втр 01:54:43 1684572324
meme-cat2.jpg (8Кб, 278x278)
278x278
Алоха аноны! В профильных тредах обсуждают поступление в вузы, а не его окончание.

Есть кто-то кто мог бы дать экспертизу по криптографии и информационной безопасности?

Горит диплом. Все прям плохо.

Сосед по общаге(учится на другом направлении) запилил какой-то по его мнению неебический machine learning проект, который который умеет воостанавливать двумерные функции по небольшой учебной дате.
Вопрос такой: могу ли я как-то заюзать его алгоритм, но найдя применение в криптографии? Строго говоря, есть какие-то реальные опции использовать машинное обучении где-то в криптографии?


П.с. Научник давно послал. Де факто у меня месяц, чтобы все в соло затащить
Аноним 12/05/20 Втр 11:21:44 1684820325
Аноним 12/05/20 Втр 11:34:11 1684826326
Аноним 12/05/20 Втр 11:43:36 1684835327
>>1684572
>реальные опции использовать машинное обучении где-то в криптографии?
Разработки ведутся (Neural cryptography) но там уровень теоритических статей. Врядли ты за месяц что-то конретное получишь.
Аноним 12/05/20 Втр 11:52:07 1684838328
>>1684572
Подкидываю идею. Нейросеть определяет пользователя-злоумышленника на ранней стадии.
Аноним 12/05/20 Втр 14:49:05 1685055329
>>1684572
использовать нейросети для крипты практически бесполезно, на крайняк можешь написать нейросеть, которая генерирует хорошие параметры для хэш функции.
Аноним 12/05/20 Втр 14:49:28 1685056330
>>1685055
или генератора гаммы
Аноним 12/05/20 Втр 16:25:19 1685227331
>>1684337
установи через докер с гитхаба апекс'а
Аноним 12/05/20 Втр 19:55:44 1685679332
matmult2.png (3Кб, 387x99)
387x99
14112121150300.jpg (22Кб, 394x591)
394x591
Предсказываемая функция d == веса а перемножаются на аргумент b. Получаем матрицу 3 на 3. Но ведь истинная функция от b находится в виде вектора, а не матрицы. Как высчитывают ошибку между этой матрицей и вектором истинных значений, например методом наименьших квадратов?
Аноним 12/05/20 Втр 21:15:00 1685796333
>>1685679
можно по-человечески, а то я не понял, что ты хочешь
Аноним 12/05/20 Втр 22:20:26 1685877334
matmult0.png (2Кб, 302x86)
302x86
matmult2.png (12Кб, 1012x254)
1012x254
>>1685796
Ну я разобрался. Перемножение происходит как на первой картинке. Аргумент а один за каждый раз, но из трех частей. Теперь меня интересует другой вопрос: как расписать градиентный спуск для второй картинки.
Аноним 13/05/20 Срд 00:00:12 1685955335
>>1685877
считать сумму градиентов трех функций?
Аноним 13/05/20 Срд 00:13:33 1685960336
Аноним 13/05/20 Срд 02:47:45 1686002337
>>1685877
скачай любой учебник по линейной алгебре и прочитай. Очень сильно поможет. Я бы сказал, без этого ты сразу перестанешь понимать, почему это работает.
Аноним 13/05/20 Срд 06:18:37 1686038338
>>1685227
на какой версии pytorch запускать?
Аноним 13/05/20 Срд 10:18:37 1686163339
>>1686038
Что запускать? Внутри докера свой пайторч будет. Какой контейнер выбрать? - Не знаю, можешь просто попробовать последнюю. Можешь посмотреть, какую версию пайторча и апекса использовала твоя либа, чтобы точно всё работало как надо. У пайторча поменьше проблем с совместимостью разных версий, чем у тензорфлоу.
Аноним 13/05/20 Срд 18:08:43 1686931340
15801546481940.png (6Кб, 772x343)
772x343
>>1683767
помню как мы с ЖЕНЕЙ пили элитное вино и думали ехать ли в БАНЮ
яндексойды не поехали и никто не поехал
но зато много ходили кругами
все это я к чему -- курс реально ХОРОШИЙ
Аноним 13/05/20 Срд 18:09:35 1686935341
Ньюфаг вкатился.
Имеем:
>корочка топ вуза по спецухе примат (осталось защитить диплом)
>англ на уровне с1
>понимание матчасти (написал рабочий автоэнкодер с нуля)
>владение пистоном и опыт работы с керасом (возился с мнистом по фану)
Не имеем:
>любой опыт работы
>признаки моего кодинга в интернете
Что обязательно узнать/сделать, чтобы не уходить петушком с интервьюх? Или мне достаточно выложить написанное за эти годы в гит и меня расхватают?
Аноним 13/05/20 Срд 18:11:40 1686941342
r-FwDt9ugpM.jpg (389Кб, 810x1080)
810x1080
>>1685877
ежели ф-ция оптимизируймая имеет ВЕКТОРНЫЙ домен значений значет более не пр/ма обычная теория оптимизаций
надлежит к рассмотрению МНОГООБРАЗИЕ парето-фронтовых оптимумов
учите ШАДчасть, орлы!
Аноним 13/05/20 Срд 18:16:31 1686947343
>>1686935
что значит расхватают?
я бы тебя взял в свой стартап стажером, в процессе многое стало бы понятно
могу на основе своего опыта сказать, что новички весьма переоценивают, как ты говоришь, значение матчасти.
написал автоэнкодер - это какой же? вариационный, denoising, с каким-нибудь модным декодером, с модными норм потоками?
все это не то чтобы тебя зачмырить, а просто чтобы понимать.
в принципе описываемые тобою знания не очень сильно тебя выделяют, разве что на фоне совсем уж петушков
Аноним 13/05/20 Срд 18:30:14 1686968344
>>1686947
>что значит расхватают?
Возьмут на начальную зарплату хотя бы 60-80к (после стажировки офк)
>я бы тебя взял в свой стартап стажером, в процессе многое стало бы понятно
Уже радуют подобные ответы.
>написал автоэнкодер - это какой же? вариационный, denoising, с каким-нибудь модным декодером, с модными норм потоками?
Обычный трехслойный, обучается при помощи дельта-правила. Сейчас юзаю его в дипломной работе как средство dimensionality reduction для векторов.
Аноним 13/05/20 Срд 18:54:15 1686987345
>>1686935
На кагле поучаствуй в соревнования. Поймешь свой уровень.
Аноним 13/05/20 Срд 22:13:33 1687212346
>>1686968
Понимаешь, в чем дело, в датасайенсе нет таких зарпплат. Возможно, зря, и, возможно, они еще появятся. Программистов еще можно нанять много, но дешевых и организовать их работу так, чтобы она приносила деньги, а с дата-сайентистами нельзя. Поэтому берут сразу на 300кк/наносек, но и ожидают немедленной пользы (или хотя бы ИНСАЙТОВ).
Поэтому я бы потыкался по стажировкам и сделал хоть что-нибудь слегка нестандартное. Не хочется тебя напрасно демотивировать (молодец, что разобрался), но обычный автоэнкодер для дата-сайентиста это все равно что оконное приложение уровня блокнот для современного программиста. Когда это было мощно и далеко не каждый мог такое реализовать, а сейчас любой школьник (студент, в твоем случае).
Отчаиваться, однако, не надо, базовую проверку ты прошел, теперь на этом фундаменте надо постараться развиться дальше до средне-рыночного уровня.
Аноним 13/05/20 Срд 22:41:31 1687240347
Сап, Машобач, давно нейронными сетями не занимался, сейчас вот понадобилось с помощью Кераса обучить нейронку, которая эмоции детектит, датасет нашел, все дела, выбрал GRU, однослойную сеть сделал, но вот в измерениях вообще не шарю, хоть убейте, выдает вот что

ValueError: Error when checking input: expected gru_4_input to have 3 dimensions, but got array with shape (23970, 15)

Уже второй час ебусь, просто все перегуглил уже, как блять нужно решейпнуть тренировочный сет, если у меня 23970 по 15 входных слов для решения задачи с помощью рекуррентки. Где мне batch_size указывать то? Вроде в fit указал, так надо еще и тренировочный сет перешейпить? Не понимаю зачем и почему...
Аноним 13/05/20 Срд 23:11:38 1687261348
>>1687240
Ни разу не использовал керас, и никому не советую, но кажется, что одно из измерений это элемент в батче, второе это элемент последовательности, третье это измерение наблюдения. С точностью до перестановки
Аноним 14/05/20 Чтв 00:51:49 1687292349
пацаны
что нужно уметь, чтобы вкатиться в компьютер вижн? а то я как бы уже и уник закончил только что, и просто кодером поработал, и все эти манякурсы прошел
Но я понятия не имею какой нужен уровень. Ну типа анону вот ответили, что рукописный энкодер не уровень. Ок, а что тогда уровень? У меня просто 3 года опыт работы прогером и идти на вакансию джуна с зп в пол булки хлеба не очень хочется, да и в целом хочу иметь нормальный уровень, чтобы не в адском усерье читать инфу, которую уже должен был знать при запросе на эту работу.
Короче не кидайте камнями плз, может кто знает идеи проектов для прокачки? чтобы не просто ебаная моделька в жупитире а прям проект с деплоем, инфроструктурой какой-никакй и, кончено же, уважемым CV
спасибо
Аноним 14/05/20 Чтв 02:13:45 1687302350
>>1687240
>у меня 23970 по 15 входных слов
Рекуррентная сеть ожидает вход размера batch_size x input_len x embedding_dim. То есть тебе нужно свои слова перевести в векторы фиксированной размерности.
Аноним 14/05/20 Чтв 03:55:40 1687325351
Аноним 14/05/20 Чтв 11:21:05 1687474352
>>1687292
Сделай сегментацию с помощью U-net. Какое-нибудь блядское перекрашивание волос с помощью GAN'а (пусть будет всрато, главное что есть признаки работоспособности, и что ты все сам реализовал).
Если что, я из соседнего окопа, занимаюсь не CV
Аноним 14/05/20 Чтв 13:09:13 1687614353
>>1687474
типа как моб/десктоп приложуху?
Аноним 14/05/20 Чтв 13:20:40 1687624354
>>1687292
>Но я понятия не имею какой нужен уровень.
Тот, который потребуется дядьке, который будет платить тебе деньги.
В данный момент на коне в рашке кибергулаг, то есть нужно уметь с закрытыми глазами натренировать детектор лиц/тушек/автомобилей, привязать к этому поиск.
Промышленность - распознавание деталей, метрология и прочая поебистика.
Надо смотреть конкретных работодателей, мониторь вакансии и изучай то, что там требуется. Как только 2/3 будешь знать, можешь идти собеседоваться.
Аноним 14/05/20 Чтв 15:19:22 1687786355
>>1687292
А зачем тебе дс? Зарплаты ниже, чем у веб-макак или бэкенда, конкуренция выше.
Аноним 14/05/20 Чтв 15:40:41 1687833356
Почему эпидеомологи и прочие статистики от науки гонят на дсов в связи с ковид?
Типа "нельзя просто так взять и работать с данными, вы неуполномочены, вы не владете Священным Знанием" или что?
Аноним 14/05/20 Чтв 16:04:33 1687887357
>>1687624
>на коне в рашке кибергулаг
Эх, скорей бы, надеюсь вся либирашья пидарастня окажется за решеткой.
Аноним 14/05/20 Чтв 16:30:38 1687914358
>>1687786
ну
1) комп вижн это не совсем дс
2) просто интересно, тк про образованию робототехник, а тут и матанчик и проганье
Аноним 14/05/20 Чтв 17:31:37 1688027359
>>1687914
>образованию робототехник
Хуясе, пади все курсы матаном ебли и квантовой физикой, лол
Аноним 14/05/20 Чтв 17:48:27 1688064360
>>1688027
нет, просто мне нравится область и я не хочу в веб или что то подобное проганье. А комп вижн тут как раз
Хули вообще доебался
Аноним 14/05/20 Чтв 17:51:58 1688070361
>>1688064
И какое отношение компвижен к робототехнике имеет?
Аноним 14/05/20 Чтв 17:55:23 1688076362
Аноним 14/05/20 Чтв 17:59:13 1688086363
Аноним 14/05/20 Чтв 18:11:38 1688118364
>>1688027
Смотри, датамакака, отберёт ещё твоё место.
Аноним 14/05/20 Чтв 18:14:47 1688122365
>>1688076
да хорош тебе, ориентация на местности VSLAM, у промышленных роботов ставят сенсоры, которые обеспечивают визуальный канал обратной связи
Да много примеров, естественно GANы, например, не очень нужны. Тем не менее комп вижн нужен
Аноним 14/05/20 Чтв 18:27:54 1688136366
boris[1].jpg (62Кб, 455x296)
455x296
>>1687914
> про образованию робототехник
Какого робота сделал для диплома?
Аноним 14/05/20 Чтв 18:32:13 1688146367
>>1687914
так бы я на собес пригласил (если бы занимался cv), ответ бы зависел от твоего знания большого О для поиска ключа в словаре и зачем нужен yield в питоне.
Аноним 14/05/20 Чтв 18:45:28 1688178368
>>1688146
ну это да, но как же без знания и классики, и алгоритмов, и ЯП, и матешки и диплернинга
Понятно что любая сфера, которой занимаешься серьзно это комплекс сфер и знаний.
Изначально вопрос был другой
Аноним 14/05/20 Чтв 19:03:11 1688204369
>>1688122
>комп вижн нужен
На том развитии как сейчас не нужен.
Аноним 14/05/20 Чтв 19:06:13 1688206370
robonyasha-iskr[...].jpg (474Кб, 959x1000)
959x1000
>>1688136
Они обычна типа пикрил делают
Аноним 14/05/20 Чтв 19:08:26 1688213371
>>1688204
а на каком же он развитии нужен? когда роботы блять будут как люди пиздохать по улицам, но, увы, без ебучей ргб вебки в глазу.
Вот тогда да, можно и научиться круги выделять на дороге
Ты либо шпака въебал либо я хз что у тебя в голове
Аноним 14/05/20 Чтв 19:09:19 1688216372
>>1688206
>>1688136
ну если это не тролинг и норм вопрос, то никакого. На факультет был один промышленный манипулятор. Делал к нему систему управления
Внезапно роботы бывают не только мобильные
Аноним 14/05/20 Чтв 19:58:08 1688288373
>>1688178
Сделай самый базовый пет проект, но чтобы он хорошо был вылизан. Посмотри на artgor'а из ОДС, у него пет-проект - это сраный мнист в вебе, но потом удачно вкатился, а сейчас грандмастер.
Аноним 14/05/20 Чтв 20:38:11 1688329374
>>1688288
угу понял, дельный совет
посмотрю кто это
Аноним 14/05/20 Чтв 22:00:45 1688417375
>>1688213
>а на каком же он развитии нужен?
Хотя бы на уровне осы или пчелки.
Аноним 14/05/20 Чтв 22:02:17 1688423376
>>1688216
> На факультет был один промышленный манипулятор
Вы очереди им дрочили или завкафедры ревновал?
Аноним 14/05/20 Чтв 23:31:19 1688533377
>>1688423
ээээ, не понял
но вообще на него не было спросу особого тк в шараге на них всем похуй то было
Аноним 14/05/20 Чтв 23:32:11 1688534378
>>1688417
полный бред, я даже представить не могу что у тебя в голове возникает при слове "робот"
типа кроме как биологически подобных других не существует, да?
Аноним 14/05/20 Чтв 23:46:59 1688551379
>>1688534
>при слове "робот"
Мы же о кампутревижине, не?
Аноним 14/05/20 Чтв 23:47:37 1688553380
>>1688533
>тк в шараге на них всем похуй то было
И что ты умеешь после окончания шараги?
Аноним 15/05/20 Птн 01:04:03 1688592381
>>1688553
у всех почему-то странный пункт на тему вышки
я после курса информатики и микропроцессорки пошел на работу на 3 курсе сразу на Си мк прогать
Помимо этого имею общие знания по проектированию железячному (понятно, что речь скорее о эрудиции, но я и не предентую на работу в этой трасли (хотя одногруппы пошли на конструкторов)), матеше, и, конечно же, РОБОТАХ.
Понятно что все не очень актуально и не сможешь ты сразу после уника мидлом/сеньером стать. Но основы норм, не понимаю чего так говнятся. Я еще и не в топовом вузе учился и все ок.
Аноним 15/05/20 Птн 01:04:50 1688593382
>>1688551
блять ты вообще хлебушек какой-то
мы о КОМПУТЕРВИЖИНЕ в РОБОТОТЕХНИКЕ. Ты с этого начал, а теперь заднюю даешь
Аноним 15/05/20 Птн 02:02:26 1688608383
>>1688593
Ебобо, уходи
>>1688592
>странный пункт на тему вышки
Просто мы знаем что такое "вышка", лол
Аноним 15/05/20 Птн 02:16:19 1688610384
>>1688122
>естественно GANы, например, не очень нужны
Ясно, доисторическое говнецо.
Аноним 15/05/20 Птн 06:50:26 1688698385
>>1688592
Нахуя ты кормишь этих шизиков? Единственный адекватный ответ написал тебе я, но не, не хочу, хочу с шизиками обсуждать ненужность вышки и нейронок
Аноним 15/05/20 Птн 10:29:31 1688799386
>>1688698
соглы, бес попутал. Понял: вылизанный пет-проект
Аноним 15/05/20 Птн 15:17:30 1689050387
Машинлёрнинг помогает спамерам?
Аноним 15/05/20 Птн 16:30:37 1689174388
Аноним 15/05/20 Птн 16:36:41 1689184389
>>1689050
> Машинлёрнинг помогает спамерам?
Пока только им и помогает. Таргетированная реклама и прочее подобное говно.
Аноним 15/05/20 Птн 17:36:17 1689271390
>>1688592
>Я еще и не в топовом вузе учился и все ок.
Очевидно, что твой заборостроительный это напрасная трата времени
Аноним 15/05/20 Птн 17:36:54 1689272391
>>1689184
>Таргетированная реклама
Нейроговно даже в это нормально не может
Аноним 15/05/20 Птн 19:27:34 1689426392
Аноним 15/05/20 Птн 19:38:54 1689434393
Аноним 15/05/20 Птн 21:41:42 1689571394
>>1689426
>очевидно соси хуй
С удовольствием!
Аноним 15/05/20 Птн 23:06:06 1689700395
qSd8n7kp618.jpg (40Кб, 512x764)
512x764
Продублирую свой пост из другого треда, но это не суть важно.
>>1687292
Чел, не слушай этого >>1687786 он наверное сам машобщик или датасатанист и боится, что его потеснят молодые стремящиеся вкатывальщики с теплого насиженного места.
В вебе сейчас полный пиздец. Нужно учить, учить, учить, ещё раз учить. Нужно отрабатывать на работе, приходить домой, но дома вместо отдыха ещё учить новые фреймворки и языки. Хотел отдохнуть, посмотреть фильм раз в неделю? Хуй там, опять вышел модный фреймворк, придется учить каждый вечер всю неделю. Помню, хотел на одни курсы пойти, на которых в конце гарантированное трудоустройство в норм компанию, но там сразу сказали, мол, на всё время учёбы вы должны забыть вообще о личном времени, нет у вас личного времени, всё, вы должны круглосуточно учить и писать код, и отчитываться о проделанном 4 раза в неделю, иначе ничего не получите.
Если не будешь постоянно учить языки и фреймворки и тратить на это кучу времени, то в лучшем случае будешь в дноконторе веб-макакой работать, в худшем вообще выкинут.
А вот в областях, не связанных с вебом, таких как Machine Learning и Data Science, по-другому. Понятно, что придётся задрачивать с кодом матан, но отношение там получше, всё таки меньше конкуренции и больше перспектив для вкатывальщика.
У меня один друг туда пошёл, вроде норм всё более-менее (остальные пошли в веб и геймдев, в итоге жалуются теперь, что много требуют и работа как у тупой макаки). Если нравится задрачивать матан - добро пожаловать в дс и мл.
Аноним 15/05/20 Птн 23:07:37 1689702396
>>1688592
>на Си мк прогать
Ебать вас развелось прогеров мк, тут на дваче чуть ли не каждый второй анон прогер микроконтроллеров. Байтаебов уже больше чем веб-макак, честное слово.
Аноним 15/05/20 Птн 23:19:41 1689714397
>>1689700
че за 5 фреймворков в месяц вы учите постоянно?
Аноним 16/05/20 Суб 00:48:54 1689822398
>>1689700
>Если не будешь постоянно учить языки и фреймворки
Это относится ко всему ИТ. Это же пузырь ебаный, все эти кампутеры не сделали никакой технологической революции. В 60х была попытка пидорнуть медиков, но лобби все порешало.
Аноним 16/05/20 Суб 00:56:56 1689832399
>>1689822
Айти приносит большие бабки, значит экономический эффект от него есть.
Никто не стал бы платить пограмистам 300сек, если бы это не окупалось прибылью.
Аноним 16/05/20 Суб 01:51:09 1689872400
>>1689832
>Айти приносит большие бабки
Наркотики еще больше
Аноним 16/05/20 Суб 01:52:00 1689873401
>>1689832
>пограмистам 300сек,
Так никто им не платит, вернее 2.5 задротам платят
Аноним 16/05/20 Суб 08:18:56 1689946402
>>1689872
наркотики не так вставляют как машоб
Аноним 16/05/20 Суб 16:04:15 1690318403
>>1689873
Уже начиная с ждунов платят по 60к(в три раза больше медианной зарплаты в рахе), а через несколько лет они вырастают в тристасеков.
На других работах ты сможешь за несколько лет вырасти разве что из 20к в месяц до 50к в месяц.
Аноним 16/05/20 Суб 16:05:03 1690321404
>>1665515 (OP)
Скажите, что легче, интереснее - машин лернинг или компьютер вижион?
Аноним 16/05/20 Суб 16:06:51 1690324405
А что такое "машина для машинлёрнинга"?
Типа 2 1080 ti, ssd и оперативки гигов 16?
Какой бюджет сейчас?
Аноним 16/05/20 Суб 16:26:07 1690359406
>>1690321
>Типа 2 1080 ti
Самый ебанутый фетиш - ДВЕ карточки.
Хорошая видюха б/у с авито, проц амуде средней цены, 750 вт китайский бп, корпус дешевый, но проверить, что видюха туда влезает, оперативки лучше 32, ssd и hdd. Если есть лишние деньги - купить вторую такую же машину. Третья скорее всего уже не окупится.
Аноним 16/05/20 Суб 17:42:52 1690439407
А кто-то уже обучил свою машину для принятия бытовых решений у себя?
Аноним 16/05/20 Суб 17:52:49 1690451408
>>1690359
ну типо на одной тренеш а на другой в игрули))
Аноним 16/05/20 Суб 19:29:55 1690685409
>>1690451
подтверждаю, две карточки- хуйня. Лучше одну из топов, но это еще вопрос зачем. На много мелких задач, без компьютер вижена, может и пойдет две. Тока не забудь шлейф-удлиннитель взять, чтобы они друг друга не грели. Ну или если у тебя есть хороший план по экспериментам, то сможешь загрузить две карты работой. Как вариант, если они недорогие обе. Но на одной топовой ты почти наверняка сможешь сделать те же эксперименты в 1,5-2 раза быстрее чем на раздельных, даже если ты заморочишься и объединишь их мощности.
Аноним 16/05/20 Суб 20:16:49 1690809410
>>1690685
>>1690359
Т.е. лучше 2080 взять одну? Подскажите плз
Аноним 16/05/20 Суб 20:53:56 1690926411
>>1690809
да, много меньше ебли. По крайней мере я знаю по компьютер вижену. Для дата саенс, чисто статистики и цифр- зависит от задачи, но точно не хуже, вопрос будет только в цене\эффективности на затраченные деньги.
Аноним 16/05/20 Суб 21:01:30 1690945412
>>1690809
Лучше взять две пеки. На одной работаешь вторая на балконе круглые сутки пыхтит
Аноним 17/05/20 Вск 11:59:57 1691389413
wtf.png (159Кб, 1360x1056)
1360x1056
Накидайте годной книги по PyTorch. Начал рандомную книгу читать, а там какой-то траленк.
Аноним 17/05/20 Вск 13:10:54 1691501414
>>1691389
Накидайте годной книги по PyTorch.
Ты торч?
Аноним 17/05/20 Вск 15:29:17 1691689415
Аноним 17/05/20 Вск 16:12:55 1691757416
Аноним 17/05/20 Вск 17:38:17 1691871417
В SVM вместо весов нормаль к гиперплоскости?
Аноним 17/05/20 Вск 18:10:47 1691939418
>>1691871
Лагранжианы. У всех векторов кроме опорных они равны нулю и т.о зануляется (и не участвует в вычислении решающего правила) все что не лежит на границах классов.
Аноним 17/05/20 Вск 22:18:48 1692304419
Есть ли вообще смысл ебаться с построение свёрточных сетей?
Или проще вщять денснет/реснет, хуяк-хуяк и в продакшн задача готова.
Аноним 17/05/20 Вск 23:27:11 1692380420
>>1689700
уже два года все сидят на vue.js и реакте, что там учить-то. А теперь попробуй вкатиться в машин лернинг без знаний о последних модных модельках.
Аноним 18/05/20 Пнд 01:37:37 1692477421
>>1692304
плюсую, хороший вопрос
Аноним 18/05/20 Пнд 07:58:09 1692570422
Че-т руки не доходят до новой версии тензорфлоу. Он сильно изменился? Керас тоже поменялся?
Аноним 18/05/20 Пнд 11:32:22 1692694423
>>1690926
>>1690945
Т.е. для компьютер вижна и дата саенс нужна мощная пека и видюха?
На днищепека "два ядра два гига для учёбы" вкатится не выйдет?
Аноним 18/05/20 Пнд 12:34:56 1692724424
>>1692694
>компьютер вижна
нужна
>дата саенс
не нужна
Аноним 18/05/20 Пнд 12:53:30 1692733425
>>1692570
Керас стал считай что обязательным, дохуя чего поломали
Аноним 18/05/20 Пнд 13:15:01 1692749426
>>1692694
колаба и эпизодической аренды aws или gcloud для вкатывания хватит
Аноним 18/05/20 Пнд 18:41:03 1693095427
Помогите плиз.
Не могу настроить VSCode для работы с ядрами помимо питоновских. Подскажите, что нужно сделать, что в VSCode (или другом редакторе) можно было запускать iJulia и Cling как в Jupyter lab, а то он заебал слабой функциональность.
Аноним 18/05/20 Пнд 21:33:34 1693268428
Кто-нибудь сталкивался с тем, что pytorch очень долго качается? Скорость менее 20 кб. Я не хочу качать его целый день.
Аноним 18/05/20 Пнд 21:56:43 1693291429
>>1693268
У меня на питоне 3.7 так было, потом сделал окружение 3.6, он глючить перестал
Аноним 19/05/20 Втр 02:33:04 1693417430
Есть существенные пробелы в знаниях по матёхе, стат.значимость, регрессия. Как и где лучше всего их восполнить?инб4 в школе/универе Пробовал дохуя разных курсов, но все они рассчитаны на систематичное обучение, в своеобразном духе.
Аноним 19/05/20 Втр 02:52:46 1693420431
>>1693291
потом отошла скорость, бывают залеты у них на хостинге.
Аноним 19/05/20 Втр 03:26:06 1693428432
>>1693417
>но все они рассчитаны на систематичное обучение
А ты хочешь по верхам нахвататься, чтобы хрюш впечатлять?
Аноним 19/05/20 Втр 06:35:51 1693461433
>>1693428
Нет, у меня есть конкретно список вопросов, отсутствие знаний и понимания которых тупо тормозят меня. Например:
1. Стат.значимость, каким способом проверки когда пользоваться
2. Какого хуя хи квадрат используется много где, что в нём такого особенного
3. Нахождение точки оптимум, есть ли какой-то трудный способ, кроме как с курса эконометрики
Аноним 19/05/20 Втр 06:36:58 1693462434
Аноним 19/05/20 Втр 17:37:17 1693999435
>>1666661
Разве что если будешь дотренивать сеточку используя transfer learning, я бы на твоем месте мувался бы на colab, если комп слабый.
19/05/20 Втр 17:38:26 1694000436
>>1667216
Работаю с системами рекомендаций и пока как правило юзали уже рабочие архитектуры, иногда дописывали, но побольшей части лишь тюнили гипер-параметры.
Аноним 19/05/20 Втр 20:21:49 1694178437
А правильно я понимаю что с бустингом на деревьях можно заводить тонны всевозможных фичей, не оглядываясь на их корреляцию и общее количество?
ньюфажик
Аноним 20/05/20 Срд 07:23:23 1694525438
>>1694178
По идее, с любой моделью большое кол-во хуевых фич будет способствовать переобученности модели
Аноним 20/05/20 Срд 12:33:40 1694937439
>>1694178
+- да, если тебе нужен хоть какой-то бейзлайн и похуй на скорость/размер. Ну и желательно от ликов избавиться.
Аноним 20/05/20 Срд 16:27:47 1695233440
>>1694525
>>1694937
Ещё такой кубский вопрос, а какой обычно минимум ratio должен быть размер датасета/кол-во фич для бустинга?
Аноним 20/05/20 Срд 20:06:07 1695475441
В пустом 3-мерном пространстве только векторы базиса нелинейны между собой? При появлении в нем 4-ого небазисного вектора вся система превращается в линейную?
Аноним 20/05/20 Срд 20:17:31 1695486442
>>1695475
Не "линейны"/"нелинейны" а линейно зависимы/линейно независимы
>В пустом 3-мерном пространстве только векторы базиса нелинейны между собой?
Нет, не только
>При появлении в нем 4-ого небазисного вектора вся система превращается в линейную?
Любые четыре вектора будут линейно зависимы
Аноним 20/05/20 Срд 21:27:07 1695550443
>>1695486
> Любые четыре вектора будут линейно зависимы
Только если среди них есть три некомпланарных
Аноним 20/05/20 Срд 22:08:47 1695593444
>>1695550
В трёхмерном любые четыре вектора зависимы. А то, что ты сказал - чушь: если среди них нет трёх некомпланарных, то вообще все 4 компланарны.
Аноним 20/05/20 Срд 22:09:57 1695597445
>>1695550
Если среди них есть три компланарных значит там тем более есть линейная зависимость (т.е. их нетривиальная линейная комбинация равная нулю)
Аноним 20/05/20 Срд 22:24:24 1695618446
>>1695593
>>1695597
Бля, поцаны, реально хуйню сказал. Извиняюсь
Аноним 20/05/20 Срд 22:30:45 1695630447
Аноним 21/05/20 Чтв 22:08:37 1696850448
>>1695486
>Любые четыре вектора будут линейно зависимы
В пространстве 4х и более измерений тоже?
Аноним 22/05/20 Птн 00:14:10 1697048449
>>1696850
>В пустом 3-мерном пространстве только векторы базиса нелинейны между собой?
>В пространстве 4х и более измерений тоже?
Чел, а ты контекст проебал.
Аноним 22/05/20 Птн 09:40:27 1697292450
В интернете много русских словарей stop_words для кириллицы. Но я чет не нашел русских словаей для латиницы. Слова типа: v, etot, nyet. Мне что их вручную переводить? Или кто-то может подсказать где искать?
Аноним 22/05/20 Птн 10:10:54 1697312451
image.png (191Кб, 668x423)
668x423