Программирование

Ответить в тред Ответить в тред
НЕЙРОНОЧКИ И МАШОБ ТРЕД №27 /ai/ Аноним 24/07/20 Птн 05:25:02 17589611
1.jpg 215Кб, 1386x881
1386x881
2.jpeg 22Кб, 480x360
480x360
3.png 166Кб, 836x572
836x572
Очередной тред про хипстерские технологии, которые не работают.

Я ничего не понимаю, что делать?
Вкатывальщики импортят slesarplow as sp по туториалам (хотя сейчас актуальнее keras и pytorch)
Толковые качают из репозитория awesome-XXXX на гитхабе проект какого-то китайца, меняют фамилию и получают $10M инвестиций как стартап.
Умные смотрят prerequisites на https://see.stanford.edu/Course/CS229 и http://cs231n.stanford.edu/
Остальные сидят ИТТ

Какая математика используется?
В основном линейная алгебра, теорвер, матстат, базовый матан и matrix calculus

Как работает градиентный спуск?
https://cs231n.github.io/optimization-2/

Почему python?
Исторически сложилось

Можно не python?
Никого не волнует, где именно ты натренируешь свою гениальную модель. Но при серьезной работе придется изучать то, что выкладывают другие, а это будет, скорее всего, python, если работа последних лет

Что почитать для вкатывания?
http://www.deeplearningbook.org/
Николенко "Глубокое обучение" - на русском, есть примеры, но меньше охват материала
Франсуа Шолле - Глубокое обучение на Python

В чем практиковаться нубу?
http://www.deeplearning.net/tutorial/
https://www.hackerrank.com/domains/ai
https://github.com/pytorch/examples
https://github.com/ChristosChristofidis/awesome-deep-learning#tutorials

Где набрать первый самостоятельный опыт?
https://www.kaggle.com/ | http://mltrainings.ru/
Стоит отметить, что спортивный deep learning отличается от работы примерно так же, как олимпиадное программирование от настоящего. За полпроцента точности в бизнесе борятся редко, а в случае проблем нанимают больше макак для разметки датасетов. На кагле ты будешь вилкой чистить свой датасет, чтобы на 0,1% обогнать конкурента.

Где работать?
https://www.indeed.com/q-deep-learning-jobs.html
Вкатывальщики могут устроиться программистами и дальше попроситься в ML-отдел

Есть ли фриланс в машобе?
Есть, https://www.upwork.com/search/jobs/?q=machine+learning
Но прожить только фриланся сложно, разве что постоянного клиента найти, а для этого нужно не быть тобой

Где узнать последние новости?
https://www.reddit.com/r/MachineLearning/
http://www.datatau.com/
https://twitter.com/ylecun
На реддите также есть хороший FAQ для вкатывающихся

Где посмотреть последние статьи?
http://www.arxiv-sanity.com/
https://paperswithcode.com/
https://openreview.net/

Количество статей зашкваливающее, поэтому все читают только свою узкую тему и хайповые статьи, упоминаемые в блогах, твиттере, ютубе и телеграме, топы NIPS и прочий хайп. Есть блоги, где кратко пересказывают статьи, даже на русском

Где ещё можно поговорить про анализ данных?
http://ods.ai/

Нужно ли покупать видеокарту/дорогой пека?
Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. На март 2020 Google Colab дает бесплатно аналог GPU среднего ценового уровня (что-то между 1050 и 1080) на несколько часов с возможностью продления.
Иначе выгоднее вложиться в GPU https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning/ Заодно в майнкрафт на топовых настройках погоняешь

Когда уже изобретут AI и он нас всех поработит?
На текущем железе - никогда, тред не об этом

Список дедовских книг для серьёзных людей:
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: http://libgen.io/

Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.

Предыдущий:
https://2ch.hk/pr/res/1734710.html
https://2ch.hk/pr/res/1704037.html
https://2ch.hk/pr/res/1665515.html
Аноним 24/07/20 Птн 06:12:41 17589752
15949572740980.jpg 92Кб, 648x597
648x597
>>1758961 (OP)
> Что почитать для вкатывания?
> http://www.deeplearningbook.org/
Сладкий хлеб. Тайдмены это читают, а потом идут сюда спрашивать чем в датасете х от у отличается.
Аноним 24/07/20 Птн 07:00:17 17589873
SxPfTll3ARE.jpg 70Кб, 694x680
694x680
>>1758975
>чем в датасете х от у отличается.
спасибо, проиграл
мимо-вкатыш
Аноним 24/07/20 Птн 12:26:40 17591354
Трясунишки в штанишках, приветики! Как делишки, как ваши котики?
Аноним 24/07/20 Птн 12:51:16 17591455
Где посмотреть соты последних 6-7 месяцев? (в computer vision)
А то выпал на какое-то время и теперь не понимаю, где индусское говно, сделанное ради статьи, а где реально работающие модельки.
Аноним 24/07/20 Птн 13:24:45 17591616
Аноним 24/07/20 Птн 13:31:59 17591647
image.png 39Кб, 429x803
429x803
>>1759161
Вот примерно про такое я и говорил. На гитхабе по 500 звезд, кроме статьи и гитхаба ничего интересного в гугле не находится (обычно есть миллионы пересказов статьи на медиуме).
Аноним 24/07/20 Птн 14:06:02 17591898
>>1759161
Эх, вот бы ещё суммаризацию статей запилили (как абстракт типа но с большими техническими подробностями)
Чтоб можно было вообще ничего не читать, ходить выёбываться чисто)
Аноним 24/07/20 Птн 15:26:18 17592459
15953917941120.mp4 3119Кб, 324x480, 00:00:52
324x480
Ребят, объясните как у вас рабочий день происходит?
Что записано в логе ? с 9 до 17 изучал новости SOTA, а с 17 до 18 запилил модельку?

Мне страшно интересно почему все обсуждения в треде либо о последних sota либо вкатывальщики не понимают простейших вещей.
Аноним 24/07/20 Птн 17:38:15 175933210
>>1759245
Встаю в шесть, зарядка, потом наминаю свои датасаентистские мошонки минут десять, на завтрак блины или каша с маслом или творог с маслом или блины с маслом или просто масло
дрочу модельки гридсёрчем часа два, перед обедом планирование и ёбля в жопу после обеда расстрел
смыть повторить
Аноним 24/07/20 Птн 20:39:31 175946911
Может ли сейчас AI, созданный в ходе Deep Learning, создавать другие AI на основе Reinforcement learning? Это пример AutoML?
Аноним 24/07/20 Птн 21:00:34 175947712
>>1759469
Да, и такого уже много было. Например, AlphaZero создал GPT-3, а сам он был оптимизирован Ватсоном.
Аноним 24/07/20 Птн 21:24:31 175948813
>>1759477
>AlphaZero создал GPT-3
Что? Они никак не связаны. Да GPT-3 на основе DL, а не RL
Аноним 24/07/20 Птн 21:27:23 175948914
>>1759488
Да это местный шиз-зумер. Там CapsuleNet Хинтона была, а не AlphaZero. Обучали dynamic routing'ом.
Аноним 24/07/20 Птн 21:59:10 175949815
>>1759489
Не знаешь, так зачем рот раскрывать? Сиди и учись.
CapsuleNet там использовалась только для инициализации весов, и то только первых 384 слоев. После этого оптимизировали сеть алгоритмом HyperNEAT. Валидацию делали через CycleGAN.
>>1759469
Гугли по этой теме meta-supervised self-learning, control and alignment problem.
Аноним 24/07/20 Птн 23:54:47 175959616
Пацаны мемят, но вообще никто эти охуительные архитектуры на сотни миллиардов параметров вручную конечно же не подбирает.
Подбор осуществляется с помощью других алгоритмов (того же rl или генетических) которые при желании можно назвать AI.
Аноним 25/07/20 Суб 00:02:08 175960417
>>1759596
Можешь что угодно назвать AI, все равно это бессмысленный термин для наебки бизнеса. Ну и для всяких шизоидов-киберпанков.
Аноним 25/07/20 Суб 02:58:01 175965518
gpt3.jpg 78Кб, 623x1280
623x1280
gpt3-2.jpg 78Кб, 623x1280
623x1280
>>1759604
У GPT-3 интеллекта точно больше, чем у среднего зумера
Аноним 25/07/20 Суб 04:00:58 175966119
15955607095871.png 308Кб, 635x600
635x600
>>1759489
Ну так чем кнн от кминс капсульнет от альфазеро отличается, разобрался уже, тайдмен?
>>1759604
> Можешь что угодно назвать AI, все равно это бессмысленный термин для наебки бизнеса. Ну и для всяких шизоидов-киберпанков.
С точки зрения долбаеба - безусловно. Ты же даже не знаешь, почему алгоритмы машоба к слабому АИ относят, а что-то кукарекаешь.
Аноним 25/07/20 Суб 04:25:15 175966720
>>1759661
>слабому АИ
Тебя кто из китайской комнаты выпустил, ископаемое?
Аноним 25/07/20 Суб 04:42:08 175966921
>>1759667
> китайской комнаты
Фуфлосовия от пиздабола, не понимающего предметной области. Смешно, что до сих пор кто-то верует во кетайские комнаты, фуфлосовских / бихевиоральных зомби и прочую клоунаду, доказывающую только ограниченность авторов этих маняидей.
Аноним 25/07/20 Суб 09:38:23 175973222
>>1759189
>техническими подробностями
Эт нужно кучу людей, которые бы рерайтили статьи. У одс вроде есть каждый месяц примерно такой обзор новых статей. Хочешь быть полезным - пили сам
Аноним 25/07/20 Суб 11:58:08 175977023
>>1759661
Что такое интеллект?
Аноним 25/07/20 Суб 12:08:28 175977424
>>1759770
> Что такое интеллект?
Фуфлософский термин. Машоб это решение задач. Если алгоритм может решить задачу, которую до него решал только человек с интеллектом, то такой алгоритм относится к слабому АИ.
Аноним 25/07/20 Суб 12:31:38 175977725
Странно, что в 2020 кто-то не понимает разницы между какими-то отвлеченными религиозными вопросами и решением задач. Вопросы типа "что такое интеллект / благодать божия / душа" не имеют никакого отношения к решению практических задач, с точки зрения такового решения можно говорить только о чем-то решающим ту же задачу, которую может решить "интеллект". Например, даже распознавание котов или негров. Важный момент - для этого не нужно отвечать на вопрос "что есть интеллект?"
Аноним 25/07/20 Суб 12:53:05 175977826
>>1759774
Засчитываю слив.

>>1759777
К чему ты это спизданул? Мы тут вроде не задачи решаем, а обсуждаем отвлеченные вопросы.
Аноним 25/07/20 Суб 13:01:59 175978327
>>1759777
Взял и приравнял интеллект к душе/благодати, ты официально недообученный перцептрон.
Аноним 25/07/20 Суб 13:15:42 175979328
>>1759777
>решению практических задач
Слесарь, усмири пукич-какич, пафос "решения задач" оставь для собеседований где ты перед кабанчиком плясать будешь чтоб тебя взяли служить за гроши.
Аноним 25/07/20 Суб 13:18:59 175979629
>>1759783
> Взял и приравнял интеллект к душе/благодати,
В чем разница?
Аноним 25/07/20 Суб 15:29:42 175995330
1566505548134.webm 4832Кб, 320x240, 00:02:24
320x240
Аноним 25/07/20 Суб 16:07:17 175997431
Вся жопа ссексилась блядь
Аноним 25/07/20 Суб 16:08:04 175997532
Аноним 25/07/20 Суб 16:42:37 176000033
Насколько серьезные нейросети можно создавать с матлабом? Вкатился пару дней назад, прошел их вводный курс Onramp, очень понравилось
Аноним 25/07/20 Суб 20:38:08 176013034
>>1760000
Тебя за такое в нормальном месте обоссут, учи питон.
Аноним 26/07/20 Вск 05:15:20 176039835
>>1760130
По хорошему, надо бы с питоном обоссывать.
Аноним 26/07/20 Вск 06:07:57 176039936
Аноним 26/07/20 Вск 09:02:36 176041537
>>1760000
Забей и учи питон. Через 5 лет отблагодаришь
Аноним 26/07/20 Вск 11:40:03 176045438
Аноним 26/07/20 Вск 12:20:35 176047539
Screenshot2020-[...].png 86Кб, 1797x414
1797x414
>>1760454
На самом деле 95% хайповых примеров работы GPT-3 результат старательного черрипикинга.
Аноним 26/07/20 Вск 13:40:52 176055640
>>1760475
>черрипикинга
Что это?
Аноним 26/07/20 Вск 15:32:54 176070641
>>1760556
надо полагать, мануальный подбор удачных примеров
Аноним 26/07/20 Вск 19:22:47 176095242
Добрый вечер. Подскажите, что годного можно почитать на тему временных рядов? Желательно "с нуля". Спасибо.
Аноним 26/07/20 Вск 19:28:43 176095843
>>1760952
пысы
Сам я нашёл вот это
https://otexts.com/fpp2/index.html
Но это слишком объёмно.
Есть что-то более сжатое, страниц не более чем на 50, чтобы по-бырому изучить тему (для собеса)?
Аноним 26/07/20 Вск 19:33:20 176096444
>>1760958
>>1760952
На самом деле я кинул не особо поскроллив, там не так уж и много. Простите за щитпостинг.
Аноним 26/07/20 Вск 21:50:20 176103445
Дано векторное пространство многочленов степени n <= 1. "Формула" такого многочлена: Y = k•X + b.
Правило формирования базиса: по коэффициенту k и b.
Я правильно понимаю, что базисом данного пр-ва будет множество векторов {(1, 0), (0,1)}?
Получается линейная комбинация: (k•1, k•0) + (b•0, b•1) = (k, b).
Аноним 26/07/20 Вск 22:26:17 176107046
Аноним 27/07/20 Пнд 20:15:14 176175947
1554245508564.png 1689Кб, 727x970
727x970
Короче обучил распознаватель пизды. Но есть одна проблема (на пике). Использую метод Виолы-Джонса.

Реквестирую советы, как улучшить качество распознавания. Хитрости, уловки, или новые методы.
Аноним 27/07/20 Пнд 20:36:50 176177448
>>1761759
Ты лет 5 вообще из бункера не вылезал, да?
Аноним 27/07/20 Пнд 20:45:42 176178349
Аноним 27/07/20 Пнд 21:36:43 176181950
Вопрос по линалу, буду благодарен. Нужно найти расстояние между двумя функциями.
1. Бесконечномерный вариант: находим норму от разности. Т.е. сначала находим разность функций, затем берем интеграл (на [0, 1]), возводим в квадрат и извлекаем корень.
2. Конечномерный вариант с n размерностью. Если наши функции дискретные (оцифрованные), то вместо интегральной нормы юзаем сеточную: вычисляем разность между значениями функций n раз (на выходе n векторов) на промежутке [0, 1]. Затем по формуле сеточной нормы: каждую разность возводим в квадрат, все складываем и извлекаем квадратный корень, получаем сеточную норму.

Проблема в том, что нормы под п.1 и 2 численно не совпадают. Для совпадения нужно норму из п.2 разделить на sqrt(n). Почему? Зачем? Инструктор называет это "нормировкой, чтобы нормы совпали", но смысл не объясняет. Ничего не гуглится, в формулах сеточной нормы никакого разделения на sqrt(n) нет.
Аноним 27/07/20 Пнд 22:13:33 176185651
>>1758961 (OP)
> The Elements of Statistical Learning
> Pattern Recognition and Machine Learning
Недавно вышли на русском. Есть у кого?
Аноним 27/07/20 Пнд 22:39:30 176187252
>>1761759
>метод Виолы-Джонса
Поменяй на что-нибудь из семейства R-CNN. Ну или на YOLO.
>>1761819
Ну потому что ты считаешь RMSE, чтобы получить root-MEAN-square error нужно поделить на n (ну или потом на sqrt(n)). Иначе у тебя при увеличении n будет увеличиваться расстояние между функциями.
Попробуй сам посчитать расстояние для f(x) = 0 и g(x) = 1.
Аноним 27/07/20 Пнд 23:44:51 176190753
Аноним 28/07/20 Втр 02:39:49 176195254
Пацаны, хуле так сложно? Вообще ни слова не понимаю.
Для напиливания хотя бы самой простецкой нейронки мне хватит ресурсов, которые в шапке указаны?
Чиста для себя, побаловаться
Аноним 28/07/20 Втр 03:30:39 176195855
Аноним 28/07/20 Втр 03:53:17 176196056
Screenshot2020-[...].png 8Кб, 467x99
467x99
>>1761819
> Т.е. сначала находим разность функций, затем берем интеграл (на [0, 1]), возводим в квадрат и извлекаем корень.
Неправильно. Ты находишь разность функций, возводишь ее в квадрат, и уже от этого берешь интеграл. Если делать как ты пишешь, у тебя в случае f(a)={0.5 при x < 0.5, -0.5 при x>0.5} и g(a)={-0.5 при x < 0.5, 0.5 при x>0.5} разность будет {1 при x < 0.5, -1 при x>0.5}, а интеграл у этой разности равен нулю, ноль в квадрате тоже ноль.

>Для совпадения нужно норму из п.2 разделить на sqrt(n). Почему? Зачем?
Потому что при дискретизации ты считаешь тот же самый интеграл из первого пункта методом прямоугольников https://ru.wikipedia.org/wiki/%D0%9C%D0%B5%D1%82%D0%BE%D0%B4_%D0%BF%D1%80%D1%8F%D0%BC%D0%BE%D1%83%D0%B3%D0%BE%D0%BB%D1%8C%D0%BD%D0%B8%D0%BA%D0%BE%D0%B2
Интеграл - это площадь, у него размерность площади, высота прямоугольника f(x) умножить на ширину прямоугольника, и далее ты суммируешь каждый из n прямоугольников. Ширина (на пикрилейтед x_{i+1}+x_i) в твоем случае равна 1/n. Подумай о том, откуда берется dx в обозначении интеграла - это Δx при устремлении к n к бесконечности.
Дальше ты выносишь за скобки и вычисляешь корень, избавляясь от размерности площади, Δx=1/n превращается в 1/sqrt(n), под корнем остается сумма квадратов разностей двух функций.
Если же на n не делить, это все равно, что считать интеграл на промежутке не от [0, 1], а на [0, n], тогда Δх=1.
Аноним 28/07/20 Втр 09:05:53 176204557
Аноним 28/07/20 Втр 12:37:07 176217658
Аноним 28/07/20 Втр 12:59:41 176219259
Нихуя не понимаю, почему predict у гридсёрча склёрновского отличается от предикта базовой модели с best_params_ ? Причём что на трейне что на тесте rmse у гридсёрча в разы лучше.
Типа предикт склёрна это усреднённый предикт пяти разных моделей на разных разбиениях кфолда или что?
Аноним 28/07/20 Втр 13:00:23 176219360
>предикт склёрна
гридсёрча
Аноним 28/07/20 Втр 14:03:39 176222761
>>1758961 (OP)
Какие там у вас подвижки в исследованиях хуесосания?
Аноним 28/07/20 Втр 14:53:48 176227162
Аноним 28/07/20 Втр 15:13:27 176230563
>>1759953
Я не понимаю, ты голос нагенерил или что?
Аноним 28/07/20 Втр 20:50:09 176257564
>>1762305
Разделил песню на вокальную и инструментальную партии
Аноним 28/07/20 Втр 22:17:40 176263665
С чего лучше начать изучать нейронные сети?
Интересует обработка видео, фото, звука.

Питон более или менее знаю.

Сразу вопрос по велосипеду:
Реально ли написать самостроящуюся нейронную сеть, где веса нейронов, помимо связей, записаны числами, а рулежом сигнала использовать битовые операции?

Если такое уже изобретено, что за метод?
Аноним 28/07/20 Втр 22:39:42 176265166
>>1762636
> С чего лучше начать изучать нейронные сети?
Швабр. Там сотня статей про вкатывание. Самое сложное это выбрать какую-то одну. Читай все
Аноним 28/07/20 Втр 22:42:30 176265467
>>1762636
> где веса нейронов записаны числами
Чувак, нейрон в базе своей выглядит как
f(Wb + E (Wi * Vi) )

Он и есть число. f это активационная функция: Relu, логистическая сигмоида, гипертангенс. Wb это базовое значение, Wi это вес связи нейрона с пред слоя, Vi это значение нейрона с пред слоя

Это всё числа. Ты о чём?
Аноним 28/07/20 Втр 22:48:23 176265568
>>1762636
Начать лучше с cs231n
>где веса нейронов, помимо связей, записаны числами
Что
>а рулежом сигнала использовать битовые операции?
Битовые операции слабо совместимы с градиентами, выбери для начала что-то более гладкое. Ты можешь бинаризовать уже обученную сеть, но обучать такую йобу эффективно не выйдет
Аноним 28/07/20 Втр 22:50:36 176265869
>>1762654
Нейронов вообще не существует, это лишняя сущность. Базовая сущность любой нейронки в машобе (спайковую экзотику не берем) это умножение матрицы на вектор
Аноним 28/07/20 Втр 23:06:17 176267970
Аноним 28/07/20 Втр 23:32:50 176270071
>>1760952
Ханк "Бизнес-прогнозирование" неплохая, разжевываются все базовые вещи, но она страниц 600
Аноним 29/07/20 Срд 01:57:53 176280672
Зашёл к вам порассуждать над тупыми вопросами.
Почему сейчас все кличут нейронки ИИ?
Почему люди считают, что Маск умный и верят ему, хотя он несёт всякую хуйню, особенно опять про тот же ИИ?
бля с такими вопросами надо было наверное в б идти
Аноним 29/07/20 Срд 02:39:01 176282473
>>1762806
> Почему сейчас все кличут нейронки ИИ?
Потому что не знают что это
Аноним 29/07/20 Срд 02:42:19 176282774
>>1762806
>нейронки ИИ
А то что сабжевое говно к нейроным клеткам а они в свою рчередь к интеллекту никакого отношения не имеют, тебя не смущает?
Аноним 29/07/20 Срд 06:23:38 176287675
>>1762827
> к нейроным клеткам а они в свою рчередь к интеллекту
Ну конечно, петуху из нижнего интернета виднее, что имеет отношение к интеллекту, а что нет.
Аноним 29/07/20 Срд 10:33:36 176294276
>>1762876
>что имеет отношение к интеллекту, а что нет.
Матанопетушея к этому тем более отношения не имеет. Идите хуесосание исследуйте, на большее вы не способны.
Аноним 29/07/20 Срд 10:36:11 176294477
>>1762806
>Почему сейчас все кличут нейронки ИИ?
А почему нет? Любая нейронка являются частью какого-то AI-движка, и называть это все целиком нейронкой безграмотно, а термина лучше, чем AI, не существует. То, что при этом есть какие-то зануды, у которых AI это обязательно strong AI из мокрых снов Рея Бредбери - это проблема самих зануд. Впрочем, в разработках по strong AI нейронки (а точнее - коннекционизм) тоже магистральная линия, символисты-онанисты и прочие веруны в душу давно соснули.
>Почему люди считают, что Маск умный
Потому что он умный
> и верят ему
Потому что людям нужны герои.
Он пугает избирателей тех политиков, к которым пойдет лоббировать свои законы, о регулировании области ИИ. У него все бизнесы в той или иной степени ориентированы на работу с государством, что космос по очевидным причинам, что теслы (субсидии на электрокары), что метро его, в отличие от гуглофейсбуков, которым это самое государство как пятая нога, только мешает. Поэтому он прекрасно понимает, что миллиарды, вбуханные в электрокаровый AI в той же тесле будут быстро отреверсены китайцами и воспроизведены. И если гуглофейсбукам похуй, что за мелюзга там копошится на их разработках, то для Маска это пиздец. И я думаю это только часть айсберга, а вообще он нацелен на гонку вооружений в области AI, военные контракты, а для этого тоже нужно заявить что-то уровня "вы GPT-3 видели? Через 5 лет будет GPT-10 и вот он вас всех поработит".
На деле конечно за 5 лет он пролоббирует все, что нужно, и заявит, мол, хорошо, что я тогда человечество предупредил, а то бы ща пиздец был бы.
Аноним 29/07/20 Срд 11:49:49 176299078
>>1762944
>Потому что людям нужны герои.
Но зачем?
Аноним 29/07/20 Срд 11:58:37 176300379
>>1762990
Те группы обезьян, которые могли пойти за лидером, в итоге начали процветать, а одиночки вымерли, не выдержав конкуренции.
Аноним 29/07/20 Срд 12:17:21 176301380
>>1762944
Интересно, просто я вроде не слышал особо, что у него проекты с ИИ есть, но видимо всё так как ты описал.
Аноним 29/07/20 Срд 13:42:58 176313781
>>1762944
> веруны в душу давно соснули.
Веруны в душу сосут изначально, т.к этот манятермин никогда ничего не объяснял и практической пользы не имел. Это вообще хороший пример того как не надо делать. Современные долбаебы, придумывающие всякие "квалиа", идут ровно по тем же граблям - заменяют вопрос о сущности явления на explanatory fictions - манятермины, не только не объясняющие ничего, а вместо этого сами требующие объяснений и определений через ещё более оторванные от явления манятермины.
Аноним 29/07/20 Срд 14:04:24 176318082
>>1763137
А ты из "дай определение"-дегенератов?
Аноним 29/07/20 Срд 15:40:09 176331083
15945239917441.jpg 76Кб, 592x532
592x532
>>1763180
> не осилил пост
> называет дегенератом кого-то кроме себя
Аноним 29/07/20 Срд 15:50:02 176332384
>>1763310
Так я вежливо уточняю, потому что из твоей шизофазии не понятно в чём состоит твоя претензия.
Аноним 29/07/20 Срд 15:57:12 176333585
>>1763180
А ты думал? Додики не могущие ни во что всегда находят себе wannabe интелектуальное нигилистское утешение в отрицании. Наш додик уникален тем что собирает все: не смог в математику - стал конструктивистким петухом, не смог в машоб - начал бастовать против диплёрнинга, не смог даже в остоятельное попизделово в котором его глупость становится очевидной - начинается философский трёп про "x нисущиствует, дайти определение".
Аноним 29/07/20 Срд 17:30:57 176349086
>>1763335
>не смог в математику - стал конструктивистким петухом, не смог в машоб
Так, а чем там настоящие математики и машобчики занимаются? Хвастайся!
Аноним 29/07/20 Срд 17:46:51 176351187
"GPT-3, can you explain what qualia is?"
"It's a fancy word for perception. Basically it means your mind can perceive things that aren't actually there and have an effect on how you think about the world around you. It's why you see color when looking at red objects, or hear sounds in the distance."
"So my brain has this ability to perceive things that are not really there? I mean does that make me some sort of psychic?"
"Well, no. You're just perceiving things as if they were there because your brain is doing its best to do so. It's more like a program in your head that makes everything look and sound as realistic as possible. It's also why your eyes can fool your brain into seeing things that aren't really there."
"Ah. So do I have some sort of training that allows me to do this?"
"Well, yes. In fact, that's part of what the training is for. We all had to be trained by our parents and then they were trained by theirs. The books call this the signal to noise ratio. Basically, if there are more signals in the world, then there are more ways for a lie to be true. If there are fewer signals, then it's easier to know when something isn't true. In other words, the more signals that match reality, the higher the chance that reality is actually reality. It's why reality itself is a low signal. It's stable, reliable, and unchanging. Higher signals are more prone to change, and that's where the problem lies."
Аноним 29/07/20 Срд 17:55:18 176351788
>>1763511
Напоминает диалоги из фильма Waking Life.
Аноним 29/07/20 Срд 23:02:36 176377789
>>1763511
Переводи на нормальный язык
Аноним 29/07/20 Срд 23:05:43 176377890
>>1763777
> "GPT-3, чи можете ви пояснити, що таке квалія?"
> "Це фантазійне слово для сприйняття. В основному це означає, що ваш розум може сприймати речі, яких насправді немає, і впливати на те, як ви думаєте про навколишній світ. Тому ви бачите колір, дивлячись на червоні предмети або чуєте звуки вдалині."
> "Отже, мій мозок має таку здатність сприймати речі, яких насправді немає? Я маю на увазі, чи це робить мене якимось психічним?"
> "Ну, ні. Ви просто сприймаєте речі так, ніби вони там були, тому що ваш мозок робить все можливе для цього. Це більше схоже на програму в голові, яка робить все виглядом і звучанням максимально реалістичним. Це також очі можуть обдурити ваш мозок бачити речі, яких насправді немає ».
> "А. Так у мене є якась підготовка, яка дозволяє мені це робити?"
> "Ну, так. Насправді, це частина того, для чого тренінг. Ми всі повинні були пройти навчання батьків, а потім їх навчили їх. Книги називають це співвідношенням сигнал / шум. В основному, якщо є більше сигналів у світі, то існує більше способів, щоб брехня була правдою. Якщо сигналів менше, то простіше дізнатися, коли щось не відповідає дійсності. Іншими словами, чим більше сигналів відповідає дійсності, тим більше шанс ця реальність насправді реальність. Саме тому реальність сама по собі є низьким сигналом. Вона стабільна, надійна і незмінна. Вищі сигнали більш схильні до змін, і саме тут криється проблема ".
Аноним 30/07/20 Чтв 00:18:23 176384491
Дарова двачане. Собираюсь оформлять вкат в ml. Что скажете по такому набору книжонок.
Лутц 1-2;
Николенко "Глубокое обучение" или Франсуа Шолле "Глубокое обучение"( Еще не решил);
Ну и параллельно матешу подтянуть, хотя итак +- знаю
Что скажете, бояре?
Аноним 30/07/20 Чтв 00:21:28 176384692
>>1763844
Ну и вот лутц тоже под вопросом. Вдруг лучше Byte Of Python, хотя я его поскролил и там вроде совсем база которую я знаю уже
Аноним 30/07/20 Чтв 02:15:58 176388293
Привет, я уже больше года мечтаю о мл и прочем анализе данных и путь себе прописал примерно такой
питон база
линукс
гит
задачи на алгоритмы
математика от матана до статистики и теорвера на среднем/низком уровне
вкатывание в простейшие задачи мл и анализа
анаконда и пр. Модули математические для питона
Кагл и литра по мл, дл и пр.
Скажите что я пропустил в этой последовательности? Нужно ли углубленно учить ооп, если знаю теорию, типа что такое методы объекта и как их применяют? Нужно ли базовую компьютерную инфу учить типа паттернов программирования и что там еще спрашивают на обычных собеседованиях? Вкатываться мужду тем в веб бекэнд, чтобы к старшим курсам иметь работу?
Аноним 30/07/20 Чтв 02:19:21 176388394
>>1763882
Забыл вставить введение в базы данных перед математикой, которое уже прошел немного
Аноним 30/07/20 Чтв 02:27:35 176388595
>>1763882
>линукс
Не особо нужен. Все остальное нормально, только математикой особо не увлекайся - она практически бесполезна на начальных этапах.
>Нужно ли углубленно учить ооп, если знаю теорию, типа что такое методы объекта и как их применяют? Нужно ли базовую компьютерную инфу учить типа паттернов программирования и что там еще спрашивают на обычных собеседованиях?
Нужно, иначе будешь писать говнокод с ошибками, что чревато потерей огромного количества времени на повторение экспериментов. В машобе делать ошибки еще более непростительно, чем в других айти сферах.
>Вкатываться мужду тем в веб бекэнд, чтобы к старшим курсам иметь работу?
Вкатываться, хотя бы потому что работу связанную с машобом ты скорее всего не найдешь.
Аноним 30/07/20 Чтв 02:31:00 176388796
>>1763885
А что с работой всё так грустно?
Аноним 30/07/20 Чтв 02:34:34 176388997
>>1763887
>А что с работой всё так грустно?
Зайди на hh и посмотри количество вакансий связанных с машобом.
Аноним 30/07/20 Чтв 02:36:18 176389098
>>1762192
Бамп, господа магистры мне помогут или изволят про сильный ии философствовать?
Аноним 30/07/20 Чтв 02:48:22 176389699
>>1763889
Ну так ведь количество специалистов тоже мягко говоря меньше нежели в фронте или в бэке
Аноним 30/07/20 Чтв 03:51:02 1763911100
>>1763890
Я за тебя должен доки копать или что?
>>1763889
Зайди на индид, ставь регион: США, рви на голове волосы.
Аноним 30/07/20 Чтв 04:00:53 1763914101
>>1763911
>Зайди на индид, ставь регион: США, рви на голове волосы.
Топовым конторам без профильного пхд ты не нужен, а остальные не захотят делать тебе визу.
Аноним 30/07/20 Чтв 04:46:39 1763920102
15942510414331.gif 425Кб, 931x682
931x682
Да какая вам работа, о чем вы вообще? Вы серьезно что ли? Вы сами читаете свои вопросы здесь? Вам в макдаке орать "свободная касса" и то не всем можно доверить.
Аноним 30/07/20 Чтв 04:57:11 1763921103
>>1763914
У кого-то здесь и пхд имеется. Правда, визы Трамп отменил.
В любом случае, ориентироваться на хаха.ру в такой области как машоб глупо. Ты же не ищешь вакансии девопса в газетах и на столбах?
Когда ты будешь достаточно прошаренным, работу найти сможешь.
Аноним 30/07/20 Чтв 07:54:45 1763943104
Аноним 30/07/20 Чтв 10:54:37 1764043105
>>1763882
>Вкатываться мужду тем в веб бекэнд, чтобы к старшим курсам иметь работу?
Эта хуйня тебя съест. Есть варианты развиться настолько, чтобы устроиться ближе к специальности. Платить поначалу будут меньше, чем в вебе, но потом обгонишь.
Если ты на младших курсах, поучаствуй в опенсорс проекте, осваивай смежную математику типа 3d и компвижена, низкий уровень типа cuda, попробуй на апворке поделать дешёвые задания по теме, и вообще чекай технологии в настоящих вакансиях, и главное не упади в две ямы, первая это одинокое задротство, второе это чаты вкатывальщиков и обучающихся. Твоя задача несильно въехать в большое количество областей и получить опыт командной работы в опенсорсе. С этими вводными любая младшая позиция будет твоей.
Аноним 30/07/20 Чтв 12:02:56 1764130106
01595489876.png 138Кб, 608x581
608x581
>Исследователи из лаборатории SAND при Чикагском университете разработали инструментарий Fawkes с реализацией метода искажения фотографий, препятствующего их использованию для обучения систем распознавания лиц и идентификации пользователей. В изображение вносятся пиксельные изменения, которые незаметны при просмотре людьми, но приводят к формированию некорректных моделей при использовании для тренировки систем машинного обучения.
http://sandlab.cs.uchicago.edu/fawkes/
https://www.opennet.ru/opennews/art.shtml?num=53414


Обесните плиз на пальцах какой толк простому анону от этого?

Я теперь могу отправить тянке фотку в Мамбе и она не нагуглит меня через findface и не узнает, что я состою в паблике Двач ?

Какие еще открывают для меня перспективы передовые достижения науки?
Аноним 30/07/20 Чтв 12:09:09 1764139107
>>1764130
> Обесните плиз на пальцах какой толк простому анону от этого?
Защита от файндфейсов и дипфейков.
Аноним 30/07/20 Чтв 12:11:55 1764144108
>>1764139
Но не до конца понятно как это использовать на практике.
вот я беру фото и искажаю. что дальше?
Аноним 30/07/20 Чтв 12:27:44 1764164109
>>1764130
Больше никаких, товарищ майор придумает свой хуй резьбой для подобных атак
Аноним 30/07/20 Чтв 12:30:55 1764167110
Предположим, хочу в своём проекте геймдев, лор генерировать заюзать GPT-3 в прикладных целях. Объясните популярно или ткните носом в туториал, где его скачать и как запустить?
Аноним 30/07/20 Чтв 12:35:25 1764171111
>>1764167
Нигде, они не выдают его в паблик. Можешь запросить доступ к апи, но тебе не дадут.
Аноним 30/07/20 Чтв 12:36:48 1764172112
>>1764171
> тебе не дадут
Почему?
Аноним 30/07/20 Чтв 12:40:55 1764175113
>>1764144
> вот я беру фото и искажаю. что дальше?
Это не для тебя сделано. Представь, что это прикрутят ко всем фоткам, загружаемым в соцсети. И все, через какое-то время никто даже датасет не соберёт для дипфейка и не найдет жертву травли файндфейсом.
Аноним 30/07/20 Чтв 12:41:35 1764176114
>>1764172
Потому что и так желающих достаточно покруче тебя
Возьми лучше gpt2 на гитхабе автора порфирьевича, пока разберёшься с ним авось что-то новое в паблике будет
А если хочешь поиграться именно с жпт3, оформи триал подписку на ai dungeon и установи в настройках модель dragon, это gpt3
Аноним 30/07/20 Чтв 12:43:44 1764179115
>>1764175
Соберёт. Такие методы живут ровно пока в датасетах мало данных аугментированных таким образом, если все соцсети будут в этом, проблем не будет
Аноним 30/07/20 Чтв 12:56:49 1764190116
!thank.jpg 110Кб, 750x354
750x354
Аноним 30/07/20 Чтв 13:18:48 1764214117
>>1764130
Они пишут, что какой-нибудь блюр/фильтры не поможет избавиться от их cloaks. Это пиздеж же? Не могут сетки быть настолько хуевыми в 2020.
Аноним 30/07/20 Чтв 13:20:10 1764217118
>>1763911
Какие доки, ёблик, что в доках я и воспроизвёл.
Ясно короче, эксперты, можно было не страдать хуйнёй с руснёй и идти сразу в реддит.
Аноним 30/07/20 Чтв 13:20:37 1764218119
>>1764179
> Такие методы живут ровно пока в датасетах мало данных аугментированных таким образом, если все соцсети будут в этом, проблем не будет
Смотря что там за преобразования. Вполне возможно что какие-то элементы полного рандома и даже в одной и той же фотке, обработанной этой хуйней в разное время, не будет ничего общего. Конечно, даже в этом случае это можно обойти, например, как-то автоматически заскриншотив нужные фотки, в скриншотах не будет этих хитрых фич, т.к это уже не сама обработанная фотка, а ее скрин, и уже нейроночке подкладывать такие скрины.
Аноним 30/07/20 Чтв 13:58:35 1764262120
Двачоне, сколько времени надо, чтобы найти первую работу в машобе? Допустим с нуля или с условного титаника
Аноним 30/07/20 Чтв 14:20:53 1764311121
Аноним 30/07/20 Чтв 18:57:39 1764521122
>>1764167
>хочу в своём проекте геймдев, лор генерировать заюзать GPT-3 в прикладных целях. Объясните популярно или ткните носом в туториал, где его скачать и как запустить?
Жадные пидарасы решили начать монетизацию, так что GPT-3 скорее всего никогда не появится в свободном доступе, только через анально огороженный API за деньги.
Аноним 30/07/20 Чтв 20:27:11 1764552123
>>1763511
Существует штук пять популярных философских позиций с которых можно разъебать этот высер.
Как ты думаешь, с какой проще всего? (очевидную феноменологию не называть).
Аноним 30/07/20 Чтв 21:23:08 1764582124
1200px-Derivati[...].png 109Кб, 1200x1143
1200x1143
Как компуктер производную считает?
Аноним 30/07/20 Чтв 21:46:46 1764591125
>>1764582
Ты даже до третьего вопроса в оппосте не дошел?
Аноним 30/07/20 Чтв 21:50:02 1764592126
>>1763921
>В любом случае, ориентироваться на хаха.ру в такой области как машоб глупо.
блин подскожити сычику где искать
Аноним 30/07/20 Чтв 23:07:45 1764628127
Котаны, а back probation и нейронка, которая будет учиться как правильно трясти другую нейронку (какие связи лучше влияют на результат) это не одно и тоже?
Аноним 30/07/20 Чтв 23:08:27 1764629128
Аноним 30/07/20 Чтв 23:32:05 1764640129
>>1764628
backprop это простейший способ обучения нейронок. Нет, automl работает по-другому
Аноним 31/07/20 Птн 00:19:10 1764654130
Двачане как к шаду подготовиться с нуля
Аноним 31/07/20 Птн 02:04:25 1764673131
>>1764654
На сайте шада все необходимое есть.
Аноним 31/07/20 Птн 10:15:44 1764789132
Понимаю что оффтоп, но если кто-то и подскажет то только аноны итт.

Надо вытащить из видоса (или раскадровки видоса в виде множества скринов) все лица в виде растров (простите за банальность).

Очень хочется сначала поиметь рабочее приложение, чтобы из коробки, в один клик оценить качество работы. Со своей готовой базой, сеткой, чертом лысым, но чтобы я смог сначала без проблем проверить результаи, а потом уже углубляться в то, как оно работает.

С шести утра залипаю, перепробовал больше дюжины проектов/решений, нормально завелось только одно, причем проприетарное и нерасширяемое. Процентов восемьдесят "открытых" репозиториев вообще не собралось, остальные требуют написания серьезной обертки для того, чтобы суметь выполнить задачу.

Подскажите что-нибудь, кроме вас знать это на чане больше некому.
Аноним 31/07/20 Птн 10:42:32 1764796133
Аноним 31/07/20 Птн 11:26:58 1764815134
>>1764789
>Процентов восемьдесят "открытых" репозиториев вообще не собралось, остальные требуют написания серьезной обертки для того, чтобы суметь выполнить задачу.
Ну так неси что у тебя не собралось, какой смысл обсуждать что-то в вакууме. Сама задача займет строк 30-50 кода на питоне с opencv dnn или dlib, какие серьезные обертки
Аноним 31/07/20 Птн 11:42:38 1764819135
>>1764815
>Сама задача займет строк 30-50 кода на питоне с opencv dnn или dlib, какие серьезные обертки

Все вот так просто, а готовых бинарников нет и не будет, собирайте из протухшего индусского кода.

Там, конечно, двадцать строчек всего, правда зависимостей и окружений на хуиллиард надо выкачать и умудриться настроить. А еще каждому свою opencv подавай, это вообще балаган (контриб- не контриб-, ваши биндинги не биндинги и весь вот этот набор слов).

Прямо сейчас ставлю какую-то конду, необходимую для pyannote-video, который умеет строить карты лиц в видосе, по которым (картам) некий face-extraction-from-video умеет вырезать лица (делает это как надо). Я, если че, на питоне в жизни ни строчки не написал. Охуенное развлечение.

Все что мне нужно, это однокликовый пруф-оф-концепт, который сожрет мое видео и покажет мне, что достаточно умеет в идентификацию лиц.
Аноним 31/07/20 Птн 11:53:01 1764830136
>>1764819
>Там, конечно, двадцать строчек всего, правда зависимостей и окружений на хуиллиард надо выкачать и умудриться настроить.
Потому что разработка под винду это боль
https://docs.microsoft.com/en-us/windows/wsl/install-win10
в консоли сначала apt install python3-pip
затем pip3 install numpy opencv-python opencv-contrib-python
Возможно можно установить это все без проблем и на нативную винду и использовать конду вместо pip, не знаю. У меня никогда не получалось настроить окружение под виндой меньше, чем за 3 часа, все время какая-то ебота выскакивала. Правда это всегда С++ был, потому что нахуя мне делать под винду что-то кроме компиляции конечного приложения, не разрабатывать же под ней, лол
Затем берешь нагугленное за 3 секунды https://github.com/kb22/Create-Face-Data-from-Images/blob/master/face_extractor.py (https://towardsdatascience.com/extracting-faces-using-opencv-face-detection-neural-network-475c5cd0c260) и заменяешь image = cv2.imread(base_dir + 'images/' + file) на https://stackoverflow.com/questions/30136257/how-to-get-image-from-video-using-opencv-python
Если лень, можешь imagemagick'ом разбить видео на отдельные изображения и закинуть в папку images
Аноним 31/07/20 Птн 12:11:26 1764837137
image.png 15Кб, 1668x33
1668x33
>>1764830
>Потому что разработка под винду это боль

Ну хуй знает. Тут по крайней мере все в одном месте и нет такой ебалы с версиями и зависимостями от кучи разрозненного кода, собранного с индусов по всему миру. Все куда прозрачнее, чем под этим вашим линуксом. А так-то я и не под виндой ща ебусь.

Все ссылки что ты дал я видел, спасибо, но я не хочу писать код (тем более что ни слова не понимаю на питоне и совсем не ориентируюсь в инфраструктуре). Я хочу клик-клик и готово, просто чтобы убедиться что оно работает так как надо. Когда убежусь, я засяду за чтение док к опенсиви и буду как белый человек использовать дотнетовские оберточки. Но вместо этого я наслаждаюсь миром открытого исходного кода, где вот такая хуйня https://github.com/pyannote/pyannote-video/issues/38 может висеть годами и, перетекая из билда в билд, ломать установку всяким мимокрокам. Unofficial pre-built OpenCV packages for Python. Вот нет этой версии у пипа и все, епт. Нахуя она там в свежих исходниках намертво указана? Можно ли ее заменить на свежак? Как это сделать, если я ставлю через пип? От обилия вопросов хочется взять и уебать. Тем временем у проприетарщиков кнопку нажал и готов, блядь.
Простите, у меня тут подгорело.
Аноним 31/07/20 Птн 12:22:36 1764843138
Аноним 31/07/20 Птн 13:10:18 1764879139
>>1764830
Ебтвоюмать, поставил табуляцию и все сломалось. Охуенный язык!

В общем, отловив в коде пару исключений, удалось завести всю эту фигню. Ну что-то с чем-то, как-то работает. Спасибо за подсказки, анон!

Но вопрос остается: есть ли бесплатный (не обязательно открытый) готовый инструмент с гуем и всеми делами, который позволяет загрузить в себя видосики и из них вычленить лица и как-то худо-бедно их сопоставить или просто хотя бы каталогизировать? Полусобранных велосипедов, как я выяснил, полно, но есть ли что-то готовое?
Аноним 31/07/20 Птн 13:18:55 1764890140
>>1764654
Тебе к Московскому или в филиал?
Аноним 31/07/20 Птн 13:24:33 1764897141
>>1764879
Тебе нужно просто лица вычленить, или ещё сгруппировать их по личностям?
Аноним 31/07/20 Птн 13:38:32 1764919142
>>1764897
>Тебе нужно просто лица вычленить, или ещё сгруппировать их по личностям?

Мне любые варианты интересны, если они идут в виде готового приложения (или хотя бы собираются в таковое по F6).
Аноним 31/07/20 Птн 13:47:26 1764921143
>>1764919
Я пару лет назад работал с детекцией лиц. Делал через dlib. Готовый пример кода использовал. Он делал массив с лицами, и оставалось только в три строки написать сохранение в файл. Не вижу у тебя вообще проблемы.
Видео->ffmpeg->кадры->dlib->вселенское счастье.
Писать только команду для ffmpeg, bat скрипт для dlib, и дополнить имеющийся скрипт тремя строками. Всё.
Аноним 31/07/20 Птн 13:51:41 1764924144
>>1764921
Гуй ты тоже в три строки написал?

Давай не будем разводить срач. Если есть че посоветовать непосредственно по запросу - посоветуй. Если нет, то просто консольную вычленялку лиц я уже сделал, с соповставлением разберусь после того, как можно будет уверенно сказать, что вычленение у "открытых" работает не хуже, чем у "закрытых". Пока проприетарщики ведут с большим отрывом.
Аноним 31/07/20 Птн 13:54:37 1764926145
Аноним 31/07/20 Птн 14:04:20 1764930146
>>1764924
Вот нахуя в такой задаче гуй?
Аноним 31/07/20 Птн 14:06:52 1764931147
>>1764930
Вырастешь большой - поймешь.
Аноним 31/07/20 Птн 15:11:53 1764982148
>>1764931
Чел, ты за советом пришёл, а ещё и выёбываешься сидишь... Ну тебе совсем делать нечего? Если больше всех знаешь, то зачем пришел?
Аноним 31/07/20 Птн 15:54:15 1765024149
>>1764982
Ну мне советов по существу вопроса напихали, я спасибо сказал, рабочий скрипт нашел.

Все, что дальше, вот эти все рассуждения о ненужности гуя, рассказы про три строчки кода - это все лишнее и не имеет отношения к оригинальному вопросу, соотв. и реакция моя будет уже не как у типа, который плохо шарит в линуксе и совсем не знает питон, а как у разраба со стажем более 15-ти лет, который в сорокатысячный раз слышит "там работы на три секунды" и "гуй нинада, давайте ебашить в консоль".

Тебя нормально первый раз попросили - либо советуй по заданному вопросу либо давай не будем сраться, но ты принес свои охуенные мысли о гуе, мол, "у вас задача неправильная". Что ты рассчитывал услышать в ответ?
Аноним 31/07/20 Птн 16:36:48 1765060150
Аноним 31/07/20 Птн 16:37:45 1765061151
Аноним 31/07/20 Птн 17:00:46 1765074152
>>1765024
15 лет опыта разработки, а ума как у продавца бытовой химии с 15-летним стажем.
Аноним 31/07/20 Птн 17:03:04 1765075153
Аноним 31/07/20 Птн 17:45:46 1765106154
>>1764591
т. е. комп считает по формуле производной сигмоиды, которая вшита в программу, если выбрана сигмоида?
Аноним 31/07/20 Птн 22:46:14 1765269155
>>1764830
>Потому что разработка под винду это боль
>У меня никогда не получалось настроить окружение под виндой меньше, чем за 3 часа
Сколько раз слышал, но до сих пор не понимаю, в чем именно могут быть проблемы. У меня на винде работает абсолютно все: питон, гит, анаконда и все питоновские библиотеки. Из исключений только очень редкие библиотеки, которые надо ко-ко-компилять, и они используют API линукса. И то, мне как правило удавалось решить подобные проблемы подправив пару строчек C++ кода, в которых я заменял вызовы к API линукса на API винды.
Аноним 31/07/20 Птн 23:12:09 1765277156
>>1765106
да. А что с таким подходом не так?
Аноним 01/08/20 Суб 05:04:28 1765355157
>>1765106
>сигмоиды
Может легче выразить через пихвоид?
Аноним 01/08/20 Суб 10:53:51 1765421158
Аноны, есть такая задача. Есть графики цены продаж для разных товаров, начинающиеся в различные промежутки времени ну т.е. один товар начали продавать 2 года назад, а другой год назад. Задача в том, что бы найти более поздние товары, чей график продаж повторяет какой-нибудь график более раннего товара, с целью предсказания дальнейшего изменения цены товары. Подскажите, в какую сторону копать, что бы адекватно сравнивать эти графики?
Аноним 01/08/20 Суб 12:41:55 1765453159
Аноним 01/08/20 Суб 13:43:42 1765494160
>>1765421
Выбираешь расстояние между функциями, считаешь его и выбираешь ту, с которой минимальное?
Аноним 01/08/20 Суб 13:59:00 1765503161
>>1765453
Кукореконье, уменьшай p пропорционально количеству гипотез и всё будет норм. А лучше вообще просто забить на фимозное говно под названием "классическая статистика", делить данные графиков на трейн и тест и смотреть на предиктивную силу похожести непосредственно.
Аноним 01/08/20 Суб 16:57:45 1765633162
Аноним 02/08/20 Вск 13:06:45 1766141163
изображение.png 444Кб, 512x512
512x512
изображение.png 278Кб, 512x512
512x512
изображение.png 461Кб, 512x512
512x512
изображение.png 392Кб, 512x512
512x512
Аноним 02/08/20 Вск 18:38:03 1766495164
и эти модеры удалили мою ссылку про машинлернера, который делал датасет про отсосы.
Аноним 03/08/20 Пнд 12:12:47 1766981165
Я относительно недавно каким-то чудом перекатился в датасатанизм из веба.
И сейчас чувствую себя какмм-то отребьем по сравнению с коллегами. У них минимум магистратура, многие параллельно в аспирантуре, почти у всех какие-то статьи публикуются.
А я 7 лет назад закончил машиностроительный на тройки и в ус не дул.
Как вкатиться в науку, что бы быть не хуже?

Я ж умею решать практические задачи, но как придумывать новое и писать научные статьи/работы хз.

Может в магистратуру пойти, по мл? Реально ли совмещать с работой, когда тебе под 30?
Аноним 03/08/20 Пнд 12:49:05 1767017166
>>1766981
Наука по машинке это полная хуйня унылая. Можешь у своих коллег и спросить насколько это интересно лмао. Лучше грандмастера на кегле подними, если надо для эго.
Аноним 03/08/20 Пнд 14:31:24 1767196167
>>1767017
А как это сделать без сатана и полного понимания всех нюансов?
Аноним 03/08/20 Пнд 14:44:27 1767206168
>>1767017

Научная работа не только для чсв.

В первую очередь, это нужно, что бы устроиться в норм контору, вроде Яндекса или Авито. Без аспирантуры и публикаций херки сразу шлют нахер.
Аноним 03/08/20 Пнд 15:20:39 1767244169
.png 102Кб, 1299x887
1299x887
.png 110Кб, 1300x905
1300x905
.png 101Кб, 1295x886
1295x886
>>1767206
> В первую очередь, это нужно, что бы устроиться в норм контору, вроде Яндекса или Авито. Без аспирантуры и публикаций херки сразу шлют нахер.
Тебя кто-то наебал. Там на аспирантуру (магистратуру, бакалавриат) похуй абсолютно. Это имеет значение, если ты без опыта к ним приходишь.
Аноним 03/08/20 Пнд 16:29:02 1767341170
А в bayesians vs frequentists есть какой-то глубокий смысл имеющий значение на практике или это философский трёп просто?
Аноним 03/08/20 Пнд 16:37:19 1767351171
>>1767244

От шаграева слышал, что он ожидает научных публикаций от кандидата.
Хотя все зависит от отдела. Может где-то гении, а где-то и второго сорта хватает
Аноним 03/08/20 Пнд 16:54:10 1767384172
>>1767351
Публикаций по перекладыванию джсонов?
В Яговне больно много пафоса, а дела мало, выёбывается скорее всего просто.
Аноним 03/08/20 Пнд 18:25:49 1767559173
photo2020-08-02[...].jpg 105Кб, 1089x1080
1089x1080
Есть некоторые объекты и некоторые параметры и комбинации этих объектов и параметров дают на выходе какой-то результат.Аноны, какой тип нейронки нужен чтобы успешно обучить её находить результат?
Аноним 03/08/20 Пнд 19:27:43 1767606174
>>1766981
>Как вкатиться в науку, что бы быть не хуже?
Читать хорошие статьи, пробовать идеи оттуда, комбинировать их, и вообще закидывать в мозговую топку как можно больше. Когда-нибудь натолкнешься на идею, достойную публикации, а там возьмешь кого-то из коллег в паровоз и опубликуешься. Или попросись сам паровозом почистить вилкой говно в статье взамен на фамилию.
Аноним 03/08/20 Пнд 19:33:14 1767608175
>>1767559
Конкретизируй, что за объекты и параметры. Может, линрега хватит.
Аноним 03/08/20 Пнд 19:36:29 1767611176
Аноним 03/08/20 Пнд 19:38:08 1767612177
>>1767608
Есть герои Dota 2 и по ним хочу определить сколько времени займёт игра и сколько будет килов.
Аноним 04/08/20 Втр 11:54:07 1768036178
>>1767612
Если ты хочешь букмекеров нагреть то не воодушевляйся особо: скорее всего такую примитивную аналитику они сами делают и вилки ставят таким образом что ты не сможешь заработать.
Аноним 04/08/20 Втр 12:15:37 1768059179
>>1767612
Ну еб твою мать, откуда вы беретесь. Пожалуйста, закрой двач и иди читай литературу на лето, а не в доту играй, уебок.
Аноним 04/08/20 Втр 19:17:21 1768477180
вопрос по треду, что скажете за магистеркую программу по анализу данных в фкн вшэ? там вроде машобом неплохо так занимаются
Аноним 05/08/20 Срд 00:21:29 1768597181
Куда переместить с колаба модель, чтобы обучение в облаке шло шустро без ресетов, и чтоб по-прежнему бесплатно?
Аноним 05/08/20 Срд 00:32:29 1768600182
Я вертел на хую ваши статьи, книги и паперы. Говномесы блядь. Давайте скомпилированный синтезатор с gui, под виндовс, блядь. Библиотеки + интерфейс + exe файл. А эту заумную хуйню не надо. Пидорасы блядь учёные, в говне мочёные.
Аноним 05/08/20 Срд 02:08:21 1768630183
>>1768600
Фильтр работает: быдло сосёт.
Аноним 05/08/20 Срд 02:59:10 1768637184
Аноним 05/08/20 Срд 06:21:33 1768657185
Аноним 05/08/20 Срд 06:49:16 1768661186
>>1768657
На мехмат лучше иди.
Аноним 05/08/20 Срд 07:13:52 1768674187
Аноним 05/08/20 Срд 10:20:33 1768712188
>>1768036
Мне интересно как это можно реализовать. БК наебалово ояевидное для каждого более менее не тупого школьника. Типо как героев запихивать в нейронку? Нумеровать их и пихать как числа?
Аноним 05/08/20 Срд 11:50:25 1768801189
>>1768712
> Нумеровать их и пихать как числа?
Тогда нейронка будет думать, что герои как-то априори отсортированы по крутости. Тут нужен one hot encoding
Аноним 05/08/20 Срд 12:38:41 1768867190
>>1768801
Это я и хотел узнать. Спасибо анон
Аноним 05/08/20 Срд 12:50:19 1768880191
>>1768801
И еще вопрос. Для успешного решения этой задачи нужна линейная регрессия или кластеризация?
Аноним 05/08/20 Срд 13:15:56 1768898192
>>1768880
Нелинейная автосиссификация.
Аноним 05/08/20 Срд 13:20:36 1768904193
>>1768880
Пройди хотя бы курсы по машинке для начала
Аноним 05/08/20 Срд 22:08:40 1769418194
>>1768477
Кого ни спрашиваю про вышку - все хвалят. Так что если поступишь - хуже не будет.
Аноним 06/08/20 Чтв 00:02:12 1769484195
Хех пук среньк, двощь, начинающий нейроинженер просит советов мудрых.
Вкатился недавно в глубокое обучение и пока что всё идёт бодрячком, уже обкатал несколько экспертных систем в облаке мда хех. Теперь хочу начать такой проект, генерация картинок (DCGAN/STYLEGAN/BIGGAN) с нелегальным контентом. С несовершеннолетними, ну. Как та демонстрационная модель "this celeb not exist", только "this loli not exict". Датасет практически имеется, у меня на hdd под терабайт этого добра, фото и видео, осталось только обработать. Но че-то стремно заливать контент в облако, а то потом приедут пативэны и поеду на сгуху. Есть ли вообще способ работать в облаке абсолютно приватно чтобы 100% никто ничего не узнал? (И ясен пень, чтоб не слишком дорого стоил прокат)
Аноним 06/08/20 Чтв 00:05:16 1769485196
>>1769484
Писать такое на подментованной борде. Ну ты и шизоид бесстрашный.
Аноним 06/08/20 Чтв 00:06:57 1769486197
>>1769485
Я ссал в рот рот тебе, товарищу майору и лично путену, моралфажек тупоёблый. Напиши что-нибудь по вопросу или заткнись.
Аноним 06/08/20 Чтв 00:19:06 1769490198
568484.png 11Кб, 413x379
413x379
Ну что вы, вкатывальщики?
Аноним 06/08/20 Чтв 00:20:59 1769492199
>>1769490
Сколько плотят сеньору?
Аноним 06/08/20 Чтв 00:27:34 1769496200
Аноним 06/08/20 Чтв 00:32:43 1769499201
>>1769496
Как вкатился я: туторы на ютубе, статьи и очерки, хабр, гитхаб, колаб.
цп-кун
Аноним 06/08/20 Чтв 01:38:07 1769511202
>>1769486
Пошёл нахуй, школьник.
Аноним 06/08/20 Чтв 03:13:13 1769529203
>>1769511
Пользуясь случаем, обоссываю итт всех лузеров-думеров и пожилых пердящих бумеров. Какой машоб, вам всем давно в тираж пора а не машоб.
Аноним 06/08/20 Чтв 04:27:36 1769540204
bitterrrr.jpeg 462Кб, 2662x1234
2662x1234
Аноним 06/08/20 Чтв 06:36:22 1769558205
15962018506970.jpg 47Кб, 500x500
500x500
>>1769529
> пожилых
Настоящий машоб одни деды и делают. Зумера вкатывальщики, как выясняется, даже х от у в датасете отличить не могут, ваш максимум - занести бабла инфоцыганам в какой-либо шад, а потом синьором пиздаболом в макдаке кукарекать "свабодная касса!!!111".
Аноним 06/08/20 Чтв 07:17:41 1769567206
>>1769558
Ой да не пизди ты. Два года назад школу окончил, теперь круглосуточно гоняю тренинги и делаю модели глубокого обучения.
Аноним 06/08/20 Чтв 07:20:12 1769569207
>>1769567
>теперь круглосуточно гоняю тренинги и делаю модели глубокого обучения
За бесплатно, да?
Аноним 06/08/20 Чтв 07:40:24 1769572208
>>1769567
Охуеть, научился запускать созданное дедами. Я о том, что зумера для машоба бесполезны, потому что нихуя не могут нового создать.
Аноним 06/08/20 Чтв 09:36:19 1769612209
>>1769499
Спасибо.
А вкатывался где и когда? В крупном городе?
А то сейча я что-то смотрю, на джунов вакансии раз-два и обчёлся.
Аноним 06/08/20 Чтв 12:06:27 1769692210
машоб это когда настолько ленишься работать что не можешь нормально написать словосочетание машинное обучение?
Аноним 06/08/20 Чтв 12:33:05 1769733211
>>1769529
Иди список на лето читай, обоссывальщик
Аноним 06/08/20 Чтв 12:36:09 1769738212
>>1769612
Шапку для кого писали
Аноним 06/08/20 Чтв 12:51:05 1769762213
>>1769738
>Вкатывальщики могут устроиться программистами и дальше попроситься в ML-отдел
Охуительный совет: вакансий питонистов не так много, я уж не говорю про то, что их наличие никак не коррелирует с наличием вакансий МЛ. А убивать N лет своей жизни на изучение какого-нибудь C#, который тебе потом не пригодится - пустая трата времени.
Аноним 06/08/20 Чтв 14:37:06 1769881214
>>1769569
А тебе платили за твоё обучение в шараге? Ой, наоборот ты платил. А чего так?
>>1769572
Пиздуй писать себе дос и винду на языке ассемблера, даун. Ах да, ты же наверняка линуксопетух, тогда страдай вдвойне и пиши себе библиотеки для ядра линукса, и драйвера под твое провонявшее мочой корыто, и чтоб сразу на двоичном, блядь, коде.
Аноним 06/08/20 Чтв 16:16:36 1769997215
>>1769762
Зачем тебе вообще вся эта грязь? Сиди у мамы на шее.
Аноним 06/08/20 Чтв 16:21:05 1770004216
>>1769997
У твоей - несомненно. Тем более, что её габариты позволяют.
Сам ты небось годы какой-нибудь джаве посвятил перед дата саенсом? Или ты очередной диванный эксперт?
Аноним 06/08/20 Чтв 17:32:37 1770063217
>>1770004
Я - да, посвятил. Просто потому что в мои годы не было еще ДС. Сейчас все хотят в ДС, а стране нужны охранники и кассиры. Самое большее - вебмакаки. За полторы ДС вакансии в РФ грызут друг другу глотки тысячи кандидатов.
Если ты серьезно настроен, уезжай на запад делать ПхД. И не возвращайся никогда. Я так сделал.
Альтернативно - делай сам что-то крутое, может кто-нибудь тебя заметит.
Аноним 06/08/20 Чтв 18:22:58 1770111218
>>1770063
> Просто потому что в мои годы не было еще ДС.
Юрий Долгорукий, ты?
Аноним 06/08/20 Чтв 19:04:14 1770165219
>>1770063
>уезжай на запад делать ПхД. И не возвращайся никогда
Пускай все либерасты уебывают. Нам они тут не нужны. Да и там этот биомусор тоже никому не нужен. Будете драить толчки в макдональдсе и тосковать по былым временам. Хотя если ты пидор, то толерантный западный социум тебя примет. Только тебе сперва надо будет доказать что ты пидор, ну ты понел.
Аноним 06/08/20 Чтв 19:19:41 1770177220
>>1769881
>А тебе платили за твоё обучение в шараге?
Да, поскольку я сделал как он >>1770063
Аноним 06/08/20 Чтв 19:32:14 1770184221
Аноним 06/08/20 Чтв 19:38:29 1770187222
>>1770184
Китай, как пузырь, лопнул. И что?
Аноним 06/08/20 Чтв 20:01:47 1770201223
>>1770177
Как сосётся, либерундель?
>>1770187
Ни хуя он не лопнул, за ним будущее.
Аноним 06/08/20 Чтв 20:02:51 1770203224
Использую китайское облако alibaba для своих нейронок. Ахуенно низкие цены и мощные gpu/tpu.
Аноним 06/08/20 Чтв 20:04:48 1770205225
>>1770203
Дай цены и ссылку на регистрацию
И для сравнения напомни цены гугла
Аноним 06/08/20 Чтв 20:09:11 1770209226
>>1770205
Ты мудак? Забанен в гугле штоле?
Аноним 06/08/20 Чтв 20:22:51 1770221227
А подскажите, есть ли обученные сетки с помощью которых можно смешивать несколько лиц в одно, содержащие какие-то черты каждого? Есть много всего для морфинга, генерации и свапа лиц, а вот для смешивания ничего найти не могу. Может, конечно, не те ключевые слова использую.
Аноним 06/08/20 Чтв 20:25:43 1770227228
Аноним 06/08/20 Чтв 20:37:51 1770245229
>>1770227
Ее надо с нуля обучать вроде, и я надеялся, что есть что-то получше качеством.
Аноним 06/08/20 Чтв 20:46:35 1770252230
>>1770245
Есть, любая сетка, у которой есть хорошее латентное представление, так может. Тебе нужно взять 2 лица, пропустить их через энкодер и получить координаты этих лиц в латентном пространстве. Затем найти среднее между этими координатами, либо еще как смешать, и получившийся вектор скормить уже декодеру.
Аноним 06/08/20 Чтв 21:04:59 1770275231
>>1770184
Напоминает высер Гайдара времен перестройки. О том что в СССР научились только копать котлаваны и все.
Ну кто ж обещал что накопление данных даст прямой непосредсвенный толк?
А пузырь не лопнул.
Аноним 06/08/20 Чтв 21:14:20 1770280232
>>1769762
>Охуительный совет: вакансий питонистов не так много, я уж не говорю про то, что их наличие никак не коррелирует с наличием вакансий МЛ
Совет не был рассчитан на аутистов, которые не могут поинтересоваться, есть ли на фирме МЛ.
>А убивать N лет своей жизни на изучение какого-нибудь C#, который тебе потом не пригодится - пустая трата времени.
Типичная позиция вкатывальщика, как бы срезать углы и сэкономить на спичках. Какие годы жизни, если ты можешь в МЛ, требования джуна ты освоишь легко и непринужденно. А если ты не способен в простейшие задачи по написанию кода по ТЗ и отладку этого самого кода, то какой нахуй МЛ.
А далее надо не C# изучать, а предметную область. Все эти GUI, бэки и фронты для МЛ кто-то пишет и их пишут простые программисты, на них есть спрос и вакансии на рынке, при чем людей, которые интересуются машобом, будут брать в приоритете. Я молчу о более релевантных вещах типа CUDA и программирования численной хуйни на С++.
>>1770063
>За полторы ДС вакансии в РФ грызут друг другу глотки тысячи кандидатов.
Пошло говно из перезвоним-треда. Это тысяча неудачников, которая не умеет нихуя и мешает нормальным людям придти и работать, примерно как спам мешает читать сообщения в инбоксе. Когда на рынке есть избыток хорошо делающих свою работу специалистов, зарплаты идут вниз. Если зарплаты вниз не идут, значит что-то в твоем маняпостроении не то.
Аноним 06/08/20 Чтв 21:48:52 1770310233
>>1770184
>И очень скоро, как показывают расчеты Economist и OpenAI, процесс уткнется в отсутствие необходимых вычислительных мощностей
Бля, я понял как это работает. Примерно такую же хуйню я слышал про сланцевую революцию, как она обязательно возьмет и сдохнет, и дальше куча ссылок на какие-то тексты, а она почему-то не взяла и не сдохла, на что естественно те же самые люди стали писать, что это пузырь и она все равно сдохнет через пару лет, а она все равно не сдохла. Потому что когда ты нихуя не знаешь по теме, ты из любого текста можешь сделать любой вывод, в том числе и тот, который нужен текущей политике партии. А тем, кто пишет подобные отчеты нужно, чтобы их огромные аналитические отделы продолжали финансировать.
Когда OpenAI пишут "процесс уткнется" - они не имеют в виду то, что все, пиздец, приплыли, закрываемся, а то, что следующий очевидный этап фокуса на исследованиях - это ускорение работы трансформеров, у которых квадратичная сложность относительно длины сообщения. Такое не первый раз происходит, в картинках был тот же самый процесс. Alexnet помещался на GPU и давал 55% на 2.5 гигафлопсах. Пошло финансирование (всегда самое легкое, что можно сделать - это дать бабок на железо) и быстро уперлись в VGG19, которая давала 70% на 40 гигафлопсах. Везде было нытье о том, что только и могут, что больше параметров наворачивать. Затем появились реснеты, которые давали 77% на 23 гигафлопсах. А после этого mobilenet и effecientnet. И effecientnet уже настолько хорошо работает, что точности vgg19 доступны мобилке.
С nlp происходит тот же самый процесс, просто бабок больше, и все масштабнее, но на деле GPT-3 это такой VGG19, простая по структуре и неоптимизированная сетка. Если ускорить трансформеры на порядок, то тренировка GPT-3 подобной сети будет стоить ну миллион рублей, то есть доступной крупной московской конторе, а инференс будет доступен на любой пекарне. На два порядка - привет школьникам и дысдикпикдазнотэкзист
И фразы этой журнашлюхи типа "Поэтому тенденция к обучению огромных моделей на тоннах данных, похоже, ведет в тупик." мог написать только даун, впрочем, эту хуйню несут еще с alexnet. Людишкам неприятно, что они с их охуенными навыками работы экселе могут быть не нужны.
Аноним 06/08/20 Чтв 22:14:06 1770327234
>>1770310
Тут ещё есть такой момент что упрощение моделей и соответсвенно удешевление тренировки в общем-то невыгодно монополистам, располагающим военными бюджетами.
Обработка изображений это всё-таки такой случай: нужно было всунуть для андроида, а вот нлп вроде как не надо.
Аноним 06/08/20 Чтв 22:14:20 1770328235
>>1770280
>Совет не был рассчитан на аутистов, которые не могут поинтересоваться, есть ли на фирме МЛ.
И как ты себе это представляешь?
В резюме на разработчика спрашивать, есть ли у них МЛ?
Или в интернете искать? Ни в том ни в другом случае ты можешь не получить достоверной информации.
>Типичная позиция вкатывальщика, как бы срезать углы и сэкономить на спичках.
Как что-то плохое. Жизнь - одна, и тратить время, чтобы доказать или ублажить какого-то анона с мэйлопараши - хуёвая идея. Тем более это время тебе никто и никогда уже не компенсирует.
>Какие годы жизни, если ты можешь в МЛ, требования джуна ты освоишь легко и непринужденно.
Мань, как будто вакансии на джуна из каждого окна вылезают.
Их мало и они сосредоточены преимущественно в ДС. А переезд в ДС сопряжён с различными трудностями, и не только финансовым.
Я уже не говорю, что ныне на даже на джуна требуют 0.5, 1 и так далее года опыта. Где их взять? Стажёром за еду работать?
Извини, мне не 15, и даже не 25, меня мамка не будет содержать.
Ну у таких как ты, всегда одни ответ:
БЕРЁШЬ
@
СТАНОВИШЬСЯ
>А далее надо не C# изучать, а предметную область.
Толку от твоей предметной области, если нет опыта работы. Твоё резюме так и будут выкидывать в корзину.
Аноним 06/08/20 Чтв 22:29:00 1770343236
>>1770310
>С nlp происходит тот же самый процесс
С нлп проходит процесс, когда матанопетушня со своим нейроговном отсасывает. Хотя в примитивных языках таких как английских все же удается пускать пыль в глаза, но это проблема примитивных языков.
Аноним 06/08/20 Чтв 22:29:45 1770344237
>>1770252
Да, это отлично сработало, спасибо!
Аноним 06/08/20 Чтв 22:44:06 1770357238
>>1769540
И в чем зумер на пике не прав?
Аноним 06/08/20 Чтв 23:40:32 1770384239
>>1770328
>И как ты себе это представляешь?
По ситуации. Можно спросить, можно почитать, что написано в "будет плюсом" в вакансии.
>Как что-то плохое. Жизнь - одна, и тратить время, чтобы доказать или ублажить какого-то анона с мэйлопараши - хуёвая идея
При чем тут это вообще. Если для тебя изучение какого-либо языка программирования вызывает боль и желание компенсировать потраченное время, у тебя большие проблемы с выбором профессии. Как ты наукой собираешься заниматься, в которой 99% времени ты будешь изучать еще менее релевантную хуйню, которая вообще может оказаться тупиком, при чем может - это мягко сказано. Весьма вероятно, что эта хуйня будет тупиком. Если эта хуйня очевидный нетупик, ее уже происследовали 30 лет назад. В этом плане программирование намного менее бесперспективная штука, например, если завтра весь машоб захватят зумера и уронят зарплаты на порядок, я просто буду пилить какой-нибудь DL-фреймворк на С++, потому что я это умею, а зумера нет. А в науке потратил ты два года на какой-то подход, он оказался фуфлом, и все, живи теперь с этим, эти 2 года идут нахуй.
>Мань, как будто вакансии на джуна из каждого окна вылезают.
Так об этом и речь, что если ты не лучше тех тысяч вкатывальщиков в айти, чтобы найти работу джуна после нескольких собеседований, в мл тебе не светит нихуя.
Это примерно как рассуждать о том, что вот поступишь ты в консерваторию и станешь великим скрипачом, не имея за плечами не то, что музыкальной школы, но и просто слуха. Речь же не о том, чтобы становиться жабосеньером с тонкостями настройки VM и знанием кучи фреймворков, что будет действительно потерей времени, а простой джуноработе, она в айти требует примерно одинаковых навыков.
>Их мало и они сосредоточены преимущественно в ДС. А переезд в ДС сопряжён с различными трудностями, и не только финансовым. Я уже не говорю, что ныне на даже на джуна требуют 0.5, 1 и так далее года опыта. Где их взять? Стажёром за еду работать?
Я потерял нить твоей аргументации. Изначально речь шла о том, что совет про вкатывание через устройство программистом штука универсально хуевая, а лучше ехать на пхд на запад. Но вот только пхд это намного более емкая вещь с точки зрения потребления мамкиных денег, это точно не путь для провинциального нищука.
Это как раз хороший вариант, когда денег много, а талантов мало. Тогда ты вбухиваешь мамкины деньги сначала в вышку на пятерки (никаких подработок), в академический английский, затем в пхд, а с этой корочкой тебя хоть куда-то, да возьмут.
Аноним 06/08/20 Чтв 23:45:39 1770387240
Screenshot2020-[...].png 81Кб, 1234x583
1234x583
Screenshot2020-[...].png 34Кб, 1149x443
1149x443
Screenshot2020-[...].png 93Кб, 850x671
850x671
>>1770205
4 бакса у алибабы, 3 у амазона, 2.5 у гугла.
Где он нашел TPU не знаю. В списке есть FPGA инстансы и некие NPU, но я не нашел ни одной локации, где бы эти NPU были доступны.

По-прежнему самое выгодное это купить 10xx или 20xx домой, в зависимости от того, нужно тебе fp16 или нет. Окупится за неделю. А если нужен временный скейлап для подбора гиперпараметров, то гугловские TPU - самое выгодное.
Аноним 07/08/20 Птн 00:42:50 1770407241
Кагда наконец расшарят онлайн облачный QPU для пользователей??? Такой чтобы задача глубокого обучения которая занимает сотни процессоро-часов, решалась кратчайшим путем за секунду???
Аноним 07/08/20 Птн 00:43:49 1770408242
>>1770384
Вот тоже пидорство, мля
Аноним 07/08/20 Птн 00:52:27 1770417243
>>1770384
>А в науке потратил ты два года на какой-то подход, он оказался фуфлом, и все, живи теперь с этим, эти 2 года идут нахуй.
Ты работаешь за деньги, а не на результат. Получилось или нет значения не имеет. Грант в любом случае попилен, а результаты можно опубликовать что даст возможность получить новые гранты даже если эта хрень никогда не будет нормально работать в продакшене.
Аноним 07/08/20 Птн 01:38:34 1770428244
>>1770417
Вот и вся ваша наука. Вы ничем не лучше тех, кто занимается gender studies, вы абсолютно такие же паразиты-говнососы. Эх, учёные, на хую верчёные...
Аноним 07/08/20 Птн 02:21:46 1770440245
>>1770428
>вы абсолютно такие же паразиты-говнососы. Эх, учёные, на хую верчёные...
Работать за идею готовы совсем немногие. Когда тебе за 30, и ты только начал зарабатывать как 20-летняя веб макака, которая к этому времени уже стала тимлидом, утроила зарплату и успела выплатить кредит за дом, желание делать стоящие вещи резко пропадает. За исключением R&D в FAANG и некоторых топовых университетов, все просто пилят гранты, не делая ничего полезного.
Аноним 07/08/20 Птн 02:46:29 1770442246
>>1770417
Если ты неамбициозная манька, то конечно не имеет. Но такие отваливаются еще на первой сессии в мухосранском вузе. В науке против таких несколько рядов траншей с пулеметами и крокодилами. У некоторых просто выученная беспомощность возникает, когда у тебя поехавший научрук и вы годами копаете безнадежную тему, начинаются маняоправдания, мол, ну и что что мне 30 и я даже квартиру не купил со своими знаниями, зато я хуи пинаю весь день. Типа я не лузер, а наебщик системы. А на деле все и так видят, что твоя тема тухлая и результаты высосаны. Это конечно стоило того, чтобы получать образование - быть очевидным лузером с зарплатой программиста без вышки.
Не, в науку идут за признанием. Некоторым везёт. Остальные сосут хуи, переходя в индустрию в 35 на те позиции, на которые начинающие с нуля вышли в 25.
Аноним 07/08/20 Птн 03:39:55 1770445247
Аноним 07/08/20 Птн 03:51:18 1770446248
>>1770442
>Некоторым везёт. Остальные сосут хуи, переходя в индустрию в 35 на те позиции, на которые начинающие с нуля вышли в 25.
В чем заключается везение? В том, что ты создал очередную йобу и тебя процитировали 1000 человек? Это практически не влияет на твой доход и твою карьеру. Единственный нормальный с точки зрения денег путь - это подороже продать себя в индустрию, и, желательно, как можно быстрее.
Аноним 07/08/20 Птн 04:10:26 1770451249
>>1770446
> Единственный нормальный с точки зрения денег путь - это подороже продать себя
Ну не все же проститутки. Хотя, насчёт зумеров не уверен.
Аноним 07/08/20 Птн 05:30:50 1770461250
>>1770451
Ну ты то вообще инцел в контексте машоба, не то, чтобы нашёлся кто тебе заплатил, такие услуги и даром не нужны
Аноним 07/08/20 Птн 06:06:16 1770464251
Представляете, в деревне Нижние Грязи сидит такой дед пердед в кресле качалке, кодит на 95-й винде алгоритм из трех нейронов и считает что он илита а зумеры ничего не соображающие песдюки... Вам всем в тираж пора хуесосы.
Аноним 07/08/20 Птн 06:14:13 1770466252
15945239917441.jpg 76Кб, 592x532
592x532
>>1769881
>>1770464
Тайда перебрал что ли? Иди читай что на лето задали
Аноним 07/08/20 Птн 10:18:56 1770593253
>>1770466
Не тайда, а сайда, пидор. Сайда-сайда. Я давно окончил школу. Я не школьник,а ты вообще дошкольник!
Аноним 07/08/20 Птн 11:41:35 1770685254
>>1770428
>Вы ничем не лучше тех, кто занимается gender studies
Для безграмотных праводаунов - безусловно
>абсолютно такие же паразиты-говнососы
Паразиты это население пидорашки, а я илита которая может позволить себе не РАБОТАТЬ НА РЕЗУЛЬТАТ а жить и заниматься интересными вещами, get mad.
Аноним 07/08/20 Птн 12:05:37 1770717255
>>1770685
Нахуя ты пиздишь на анонмной борде?
Аноним 07/08/20 Птн 15:18:43 1770977256
>>1758961 (OP)
Планирую конкретно в data science, big data и нейросети углубляться, какие направления и полезную литературу посоветуете?
Аноним 07/08/20 Птн 16:36:39 1771060257
>>1770384
>По ситуации. Можно спросить, можно почитать, что написано в "будет плюсом" в вакансии.
"Будет плюсом", можно и в ходе работы добрать. Но большинство ебало корчат при поиске работников.
>При чем тут это вообще. Если для тебя изучение какого-либо языка программирования вызывает боль и желание компенсировать потраченное время, у тебя большие проблемы с выбором профессии.
Большая часть жизни - и так боль, заниматься нелюбимыми вещами: школой, вузом, работой и прочими издержками человеческого существования. Что-то из этого приносит пользу, а что-то нет, но более любимым от этого не становится.
Так вот, язык программирования - всего лишь инструмент. Зачем инструменту посвящать всю жизнь?
>Как ты наукой собираешься заниматься, в которой 99% времени ты будешь изучать еще менее релевантную хуйню, которая вообще может оказаться тупиком, при чем может - это мягко сказано.
Наука науке рознь. Машобом в науке можно заниматься не только обмазываясь своими слоями и генераторами, и прочими абстракциями ака математики, но банально применяя модели для решения прикладных задач, вроже подсчёта птиц на Галапагосских островах.
>А в науке потратил ты два года на какой-то подход, он оказался фуфлом, и все, живи теперь с этим, эти 2 года идут нахуй.
В науке полно проблем, которые можно решать при помощи машоба. Но у тебя она почему-то ограничивается информатикой и прикладной математикой.
>Так об этом и речь, что если ты не лучше тех тысяч вкатывальщиков в айти, чтобы найти работу джуна после нескольких собеседований, в мл тебе не светит нихуя.
Здесь мы идём опять, чтобы попасть на собеседование на джуна, надо чтобы были вакансии на джуна.
Если их нет, твои преимущества и знания никому не нужны.
>простой джуноработе, она в айти требует примерно одинаковых навыков.
То есть по твоему джун-девопс занимается тем же самым, чем и джун-разраб, джун-тестер, джун-датасаентист?
>а лучше ехать на пхд на запад. Но вот только пхд это намного более емкая вещь с точки зрения потребления мамкиных денег, это точно не путь для провинциального нищука.
Именно так, потому что твоё пхд - ёбаная лотерея без должного выхода в большинстве случаев.
Чтобы попасть на пхд надо:
- иметь хотя бы бакалаврский диплом
- иметь более-менее нормальные статьи по теме будущей пхд
- иметь хороший уровень английского, чтобы сдать TOEFL и прочие GRE
- иметь отзывы от своих руководителей - научных или по работе
- перевести свои сраные документы: диплом, статьи, отзывы на английский у нотариуса
- выбрать ВУЗ, лабу и профессора у которых собираешься учиться, связаться с ними
- зарегистрироваться на их сайте и уплатить их fee для поступления
- отправить всё это (включая результаты TOEFL и пр.) в ВУЗы месяцев за 9 до нового учебного года обычной почтой
- ждать, скрестив пальцы

И что ты получаешь в итоге? Допустим, ты выиграл в конкурсе на поступление. Phd на западе делается до 5 лет. Это если всё будет нормально. Если ты не посрёшься со своим научником, если он окажется нормальным человеком и не будет тебя придерживать и сильно эксплуатировать как раба (ведь не зря такая шутка есть, что науку делают аспиранты).
А дальше что? Количество профессоров на западе около 5% от общего числа учёных, сразу после аспирантуры ими не становятся. И их годовая зарплата всё равно меньше, чем у нынешнего сеньора в МЛ. А быть вечным постдоком с контрактами на 2, 3, 5 лет - это для тех, у кого нет личной жизни.
Это если ты поступил, и то, может не сложиться, и ты окажешься на улице. Будешь в макдаке работать в чужой стране.
А если ты не выиграл, ты просто убиваешь кучу времени, денег и бумаги.
И твоё пхд на голом месте не делается - те же статьи, если ты мимокрокодил, из ниоткуда не появятся.
Так что вот так просто ВЗЯЛ И ПОСТУПИЛ тоже не катит.
И да,
>на запад.
Лет 5-10 я бы ещё подумал, но сейчас каяться на коленях перед неграми и прочими пидарасами не очень хочется.

>Это как раз хороший вариант, когда денег много, а талантов мало.
Если у тебя много денег, нет никакого смысла рвать жопу ради пхд и машоба, если это не самоцель.
Можно и так жить в своё удовольствие.
Аноним 07/08/20 Птн 21:05:28 1771368258
>>1771060
Ты сильно преувеличиваешь проблемы. По факту, необходимо лишь иметь бакалавр из любого мухосранского вуза и уверенное владение английским, что и так нужно любому айтишнику. Поступить на пхд несложно. Это намного легче, чем найти нормальную работу. Ты бесплатно учишься и тебе за это платят деньги. Потом, если захочешь, можешь перекатиться в индустрию. Не стоит идти на пхд только если у тебя уже есть возможность устроиться на нормальную работу.
Аноним 07/08/20 Птн 21:07:31 1771370259
>>1771368
> необходимо лишь иметь бакалавр из любого мухосранского вуза и уверенное владение английским
Что, правда?
И при поступлении за наличие написанных статей не спрашивают?
Аноним 07/08/20 Птн 22:24:57 1771438260
>>1771368
Напиши гайд, я добавлю в шапку. Мой совет про перекат из смежной специальности для очевидного жителя ДС возрастом 25+
Аноним 07/08/20 Птн 23:14:28 1771470261
>>1771370
>И при поступлении за наличие написанных статей не спрашивают?
Как правило нет, но насчет всех университетов я не скажу.
>>1771438
>Напиши гайд, я добавлю в шапку.
А смысл? Тем, кому действительно нужно, все найдут сами, а всякие зумеры сольются как только понадобится заплатить 200 баксов за TOEFL и 200 баксов за GRE.

Если вкратце, то алгоритм поступления такой. Сначала ищешь университеты, в которых хочешь учиться. Топы сразу отметаешь, поскольку туда все равно не возьмут. Смотреть в первую очередь надо на то, сколько платят (не всегда есть в открытом доступе, возможно придется выяснять по эмейлу), и на стоимость жизни, в частности на стоимость аренды квартиры. Выбрав несколько университетов, сдаешь TOEFL и GRE. Это первый этап, где можно обосраться, в особенности на языковой части GRE. Имея английский уровня школьной программы, придется затратить годы на подготовку. Дальше подготавливаешь остальные документы, все должно быть подробно написано на сайте университета. Если есть вопросы, то тебе помогут, надо только найти к кому обращаться. Второй критический момент - найти препода, который захочет стать твоим научным руководителем. Тебе нужно связаться с ним и показать, что ты серьезно настроен. Если удалось заручиться поддержкой, то считай что на этом все. Дальше разбираешься с документами, рекомендациями и прочим, делаешь визу и ждешь оффера. Для переката понадобится минимум 5к (экзамены, платеж за подачу документов, виза, билет на самолет, и расходы на месте), в идеале 10к, чтобы была подушка безопасности.
Аноним 07/08/20 Птн 23:23:40 1771478262
>>1771370
Хуйню несёт, если не хочешь в University of Nowhere phd делать нужны и связи (аля "рекомендации") и статьи не помешают, и прочие заслуги.
Аноним 07/08/20 Птн 23:24:16 1771480263
Какие книги по computer vision посоветуете? Я пока пробежал глазами варианты, и во многих увидел хуйню, где на 50 страниц расписана установка opencv
Аноним 07/08/20 Птн 23:25:10 1771483264
>>1771478
Миколов в Брне word2vec придумал например, какая разница, где заниматься наукой, если за это платят
Аноним 07/08/20 Птн 23:27:17 1771486265
external-conten[...].jpeg 25Кб, 484x700
484x700
>>1771480
Я читал пикрелейтед и Mastering OpenCV with Practical Computer Vision Projects
Аноним 07/08/20 Птн 23:27:24 1771487266
>>1769540
Вы ничего не делаете для прогресса, а только тащите всё назад. Хрр-тьфу в парашников думеров и бумеров ебаных. В тред тоже харкну, а кто ниже, слижет.
Аноним 07/08/20 Птн 23:30:04 1771492267
external-conten[...].jpeg 320Кб, 1250x1554
1250x1554
>>1771487
>Хрр-тьфу в парашников думеров и бумеров ебаных. В тред тоже харкну, а кто ниже, слижет.
Аноним 07/08/20 Птн 23:34:29 1771494268
>>1771470
>А смысл? Тем, кому действительно нужно, все найдут сами
Ты ошибаешься. Я например не знал что можно уйти на пхд с зарплатой после бакалавра, просто в голову такое не приходило. Мне можно, я специалистом стал 8 лет назад, но тем не менее, не думай, что все такие же прошаренные, как ты, особенно в рашкомухосрани.
Аноним 07/08/20 Птн 23:42:03 1771497269
>>1771483
А phd в парашных универах всё ещё засчитываются за ачивмент в индустрии?
Аноним 08/08/20 Суб 05:41:37 1771627270
15945239917441.jpg 76Кб, 592x532
592x532
Вот этот >>1771483 в правильном направлении думает. Сейчас не те времена, когда Ломоносов в лаптях пешком пошел в Москву учиться. Глобализация ежжи, в наше время, если ты способен запилить что-то уровня word2vec, похуй откуда ты. Брно или Барнаул. Но это мозги нужны, путь Миколова не для тайдменов.
Аноним 08/08/20 Суб 08:09:11 1771639271
>>1771627
>word2vec
Неработоспособное говно.
Аноним 08/08/20 Суб 08:10:59 1771640272
>>1771639
Тебя похоже так на нашего особенного триггерит, что ты даже очевидные вины прошлого обсираешь
Аноним 08/08/20 Суб 11:55:33 1771687273
Сейчас бы обращать внимание на колхозную пидорашку, верующую в эфир, плоскую землю, вред прививок и в антихриста Билла Гейтса, который хочет всех прочипировать макаронавирусом через 5G вышки.
>>1771640
> очевидные вины прошлого
Да и будущего. Лингвистические регулярности Миколова это не просто какой-то прикол, а общий подход к экстракции из эмбеддингов любых закодированных в нем отношений.
Аноним 08/08/20 Суб 17:03:08 1772031274
Пидоры боятся что молодые специалисты вышвырнут их с рынка?
Аноним 08/08/20 Суб 17:05:34 1772033275
>>1771627
>тайдменов
Про тайд какой-то пишет. Причем тут тайд, или ты не видишь разницы между объебосом с инстаграма и начинающим специалистом-энтузиастом?
Аноним 08/08/20 Суб 17:43:27 1772076276
>>1771687
>Лингвистические регулярности Миколова
Уровня пихвоидов Жопеншмульцера
Аноним 08/08/20 Суб 17:49:22 1772080277
>>1772076
Для анэнцефала, сдавшего в колхоз солому, которая у него была вместо мозгов, безусловно.
Аноним 09/08/20 Вск 02:24:22 1772375278
>>1771687
>общий подход к экстракции из эмбеддингов любых закодированных в нем отношений
>блиин чуваааак ну типа кодируем слова векторами так что близкие слова должны соответсвовать близким векторам
Нобелевку гению!
Аноним 09/08/20 Вск 02:29:05 1772377279
>>1772375
Учитывая что сообщество яйцеголовых 30 лет писало огромные статьи и наворачивало какие-то тонны сигмоидов, а разгадка была в relu и простом прибавлении входа в выходу слоя - за подобные простые решения лучше давать нобелевки
Аноним 09/08/20 Вск 05:53:38 1772395280
>>1772375
Тоже в колхоз сдал что там у тебя вместо мозгов, как и предыдущий оратор? Из какой вы школы лезете?
Аноним 09/08/20 Вск 07:19:05 1772400281
>>1771687
>Сейчас бы обращать внимание на колхозную пидорашку, верующую в эфир, плоскую землю, вред прививок и в антихриста Билла Гейтса, который хочет всех прочипировать макаронавирусом через 5G вышки.
Я вас путаю, кто из вас в кефир верит, а кто на word2vec дрочит.
>Да и будущего. Лингвистические регулярности Миколова это не просто какой-то прикол, а общий подход к экстракции из эмбеддингов любых закодированных в нем отношений.
У Миколова неглубокая сетка без обратной связи, она принципиально ограничена в выразительной силе на флопс, захочешь что-то посложнее, столкнешься с экспоненциальным ростом. То есть эмбеддинги ты построить можешь, но выцеплять они будут только самый очевидный и простой контекст.
Если хочется больше контекста, то нужны RNN, но любят прошлое экспоненциально забывать, поэтому нужен механизм аттеншена, уменьшающий забываемое. Но RNN очень плохо тренируются на GPU из-за необходимости шеринга весов между разными слоями в BPTT, поэтому, как в случае с изображениями и свертками, можно забить на шеринг весов между разными итерациями и просто тренировать все разом.
И вот будущее оно лежит либо в покорении RNN новым железом с быстрым BPTT, либо нахождении альтернативы BPTT, но в краткосрочной перспективе - в дальнейшем облегчении трансформеров, чтобы помнили больше, а флопсов жрали меньше.
А Миколов остался в далеком 2014 по нынешним временам.
Аноним 09/08/20 Вск 08:24:06 1772411282
>>1772400
> То есть эмбеддинги ты построить можешь, но выцеплять они будут только самый очевидный и простой контекст.
Вот только глубокие модели в NLP существенно не превосходят "shallow"-модели типа того же скипграма. Что наводит на мысль, что диплернинх в НЛП не очень и нужон, тут скорее нужно не стакать побольше слоев, а думать, что можно сделать дальше с самими векторами эмбеддинга для экстракции чего-то интересного. И вот в этом направлении Миколов сделал то, чего до него не делал никто. Эмбеддинги были и до word2vec, TF-IDF всякие, а до лингвистических регулярностей никто не додумался (которые и на TF-IDF работают, к слову). Есть ещё в fasttext'е такая штука как OOV, out-of-vocabulary векторы слов, которых нет в словаре и соответственно, корпусе, на котором построен эмбеддинг. Они вычисляются как центроид векторов входящих в их состав букв. Т.е из эмбеддинга можно получить вектор слова или фразы, которых там нет изначально. И их можно далее использовать, в том числе для лингвистических регулярностей. Я что хочу сказать, работа с эмбеддингами это не только их построение, но и всякие неочевидные методы, которые позволяют получать из эмбеддинга вещи, которые там закодированы неявно, и.е тот сложный контекст, о котором ты пишешь. Его и в TF-IDF хватает, если правильно подойти к вопросу. А вот это все "ололо, Миколова из 2014 года - на свалку, нужно трансформеры ебенить, больше слоев богу слоев, больше трансформеров трону трансформеров" это школьничество.
Аноним 09/08/20 Вск 09:39:55 1772418283
>>1772411
>Я что хочу сказать, работа с эмбеддингами это не только их построение, но и всякие неочевидные методы, которые позволяют получать из эмбеддинга вещи, которые там закодированы неявно, и.е тот сложный контекст, о котором ты пишешь.
Проблема эмбедингов в том, что они уничтожают часть информации. OpenAI с GPT уже натолкнулись на подобную проблему, сетка хуево рифмует и плохо считает цифры (то вероятность правильного ответа "сколько один плюс один" и "сколько 1+1" разная, словами арифметика работает лучше, то же касается и рифм, если разделить слова пробелами, она начинает рифмовать лучше), а все потому что перед обучением поток символов был пожат примитивным алгоритмом сжатия, работающим на байтовом уровне. То есть в датасете сохраняется практически все о языке (точнее языках), кроме непосредственно буквенных представлений.
У алгоритмов, основанных на эмбеддингах (не самих эмбеддингах, а именно том что ты предлагаешь - "сделать дальше с самими векторами эмбеддинга для экстракции чего-то интересного") с этим хуже, потому что они не просто превращают текст в странный транслит, а затем после обработки возвращают все назад для человекочитаемого вида, но еще и уничтожают орфографию напрочь. Такой подход хорош для китайского языка, они по сути свои мысли такими эмбедингами и записывают, но не для индоевропейских и тем более синтетических.
Идеальная же языковая модель вообще должна на аудио работать, потому что буквы уже являются потерей важной информации, и первым такую натренирует скорее всего гугл, потому что у них есть ютуб с бесконечным количеством образцов речи носителей.
Аноним 09/08/20 Вск 10:50:40 1772441284
>>1772418
>потому что буквы уже являются потерей важной информации
Хуйню несешь, это для англоговна какого нибудь с его кью queue может и актуально.
Аноним 09/08/20 Вск 11:37:54 1772466285
>>1772418
> OpenAI с GPT уже натолкнулись на подобную проблему, сетка хуево рифмует и плохо считает цифры (то вероятность правильного ответа "сколько один плюс один" и "сколько 1+1" разная, словами арифметика работает лучше,
Эмбеддинг должен быть полным относительно решаемой задачи. Например, там должно быть достаточно инфы, чтобы сетка могла вывести что "1", "один", "one" это одно и то же. И такая инфа в любом эмбеддинга есть, даже если явно (вероятность взаимозаменяемости "1" на "один" во всех фразах) не задана, но ее оттуда так просто не получить, нужно как-то задать нужное отношение типа "1" относится к "один" как что-то к чему-то, в идеале такое должно строиться автоматически. У человека это работает без дополнительного специального обучения, через всякие derived relations и прочие свойства обобщенных AARR оперантов, а в сетках это надо как-то эмулировать, через те же лингвистические регулярности. Дело скорее не в недостатке данных, а в разной обработке их человеком и алгоритмами.
Аноним 09/08/20 Вск 12:10:50 1772483286
>>1772441
Не актуально это разве что для латыни, на которой никто не говорит. Модель языка не может быть полной без устной речи.

>>1772466
>Эмбеддинг должен быть полным относительно решаемой задачи
Для этого нужна обратная связь. Должна быть петля: после создания эмбединга кто-то или что-то должно проверить этот самый эмбединг на "полноту", и далее либо сказать "ок", либо начать все заново (либо не заново).
То есть либо приходит мыкола, видит, что эмбеддинг "не полный" в твоих терминах, и перепиливает свой shallow алгоритм, верните мне мой 2014, либо эта обратная связь зашита в сам алгоритм (следующий слой фидфорвард сети, либо этот же слой из прошлого RNN передают назад сигнал ошибки, эмбединг на лету корректируется с каждой новой порцией текста), и обучение эмбединга и цепочки в трубе преобразований идет одновременно. Внутри мозга никакого мыколы нету, инфа 100%, там сплошной вульгарный коннективизм.
>а в сетках это надо как-то эмулировать, через те же лингвистические регулярности
Не, не надо. Неокотекс это такая большая весьма однородная шестислойная RNN сеть, которая достоверно способна выполнять все задачи shallow AI, в том числе и хранит в себе модель языка. Примерно к этому и надо стремиться - универсальной рекуррентной йобе с десятком слоев.
Отличия идут в другом. Мозг архитектурно sparse, GPU dense. В итоге даже имея запиленный аттеншен, позволяющий игнорировать нерелевантную задаче информацию, во время парсинга каждого токена модель пропускает его через весь мозг. Человек бы от такой хуйни умер от перегрева. Второй момент в том, что тренировка RNN с помощью BPTT сосет, но об этом я писал. Но это в принципе можно пофиксить. У нвидии уже есть патенты на спарсификацию вычислений, единственная проблема для васянов только в том, что сейчас они умудрились впарить геймерам технологии типа RTX, поэтому можно купить дешевые видюхи и считать на них, а кому будет впариваться ускоритель sparse вычислений совершенно не понятно. В итоге придется покупать не копеечные видюхи, а сравнимые по скорости серверные решения в 10 раз дороже. Хотя возможно AI-ускоритель именно для AI будет в каждом телефоне со временем.
Аноним 09/08/20 Вск 13:06:11 1772511287
>>1772395
Ну такая уж у вас "наука", чего гореть-то
Аноним 09/08/20 Вск 13:17:49 1772519288
>>1772483
>либо эта обратная связь зашита в сам алгоритм
Вроде бы подходы с обучаемыми ембеддингами были в берте, и там они проиграли классике.
Аноним 09/08/20 Вск 13:32:06 1772530289
>>1772400
>>1772411
>>1772418
>>1772466
>>1772483
Я 12 лет на дваче и первый раз вижу, чтобы кто-то кидал друг другу подряд такие большие цельные куски текста и при этом не вайп и не паста
Аноним 09/08/20 Вск 14:07:53 1772549290
>>1772483
>>1772519
> Вроде бы подходы с обучаемыми ембеддингами были в берте, и там они проиграли классике.
Тоже где-то читал подобное. Я не считаю, что диплернинх в НЛП это прямо путь в никуда, просто скорее всего, он не даст радикального превосходства. С (очень хорошо обоснованной практически) точки зрения RFT, relational frame theory, речь это довольно простая вещь, даже очень сложные языковые структуры сводятся к небольшому набору очень простых отношений. И я уверен, что fasttext'а вполне достаточно для полного представления речи. Просто нужны более хитрые методы анализа, не только косинусы между векторами. Что-то было про нелинейные эмбеддинги, вроде сферы Пуанкаре. В начале нулевых ещё довольно удачно пробовали растуще-иерархическими картами Кохонена анализировать TF-IDF на основе архивов новостей http://www.ifs.tuwien.ac.at/~andi/ghsom/publications.html , с современными эмбеддингами никто таких экспериментов не ставил. Думаю, что-то такое нужно лучше разбирать. В НЛП сейчас ситуация такая, что нужно не прыгать, а думать.
Аноним 09/08/20 Вск 19:57:04 1772892291
>>1772549
>сферы Пуанкаре
>картами Кохонена
Сфинктер Жопеля, пупок Пупселя
Аноним 09/08/20 Вск 19:57:53 1772894292
>>1772530
>куски текста
Графоманыс
Аноним 09/08/20 Вск 20:29:25 1772918293
>>1772892
кручение лжеца и пуки подлеца! Несчастный крокодил и тихий педофил, а я мечу икру, вставая поутру
Аноним 09/08/20 Вск 22:07:07 1772976294
>>1772918
Как нейронка, не отличишь.
Аноним 09/08/20 Вск 22:12:53 1772981295
>>1772976
Так вот оно что! Вместо нейронки к продакшену можно прикрутить шизика.
Всё, посоны, организуем стартап.
Аноним 09/08/20 Вск 22:50:31 1772995296
>>1772981
> прикрутить шизик
Шизофазика, тогда точно не отличишь.
Аноним 09/08/20 Вск 23:29:10 1773003297
>>1772892
ты машину больцмана забыл
Аноним 09/08/20 Вск 23:30:12 1773004298
>>1773003
>больцмана
Боцмана
Аноним 09/08/20 Вск 23:33:16 1773005299
bocman-i-popugaj.jpg 23Кб, 200x300
200x300
>>1773004
тогда уж попугай боцмана
Аноним 10/08/20 Пнд 13:37:04 1773278300
посоветуйте годный курс/книгу по image processing/opencv и все рилейтед
Аноним 10/08/20 Пнд 13:39:00 1773280301
>>1773278
сорян оказалось выше уже обсуждали то же самое
Аноним 10/08/20 Пнд 18:31:38 1773502302
Аноним 10/08/20 Пнд 21:16:24 1773598303
>>1773502
Что за чел, какой опыт у него.
Аноним 10/08/20 Пнд 21:44:59 1773616304
>>1773598
Прошел курс от skillfactory
Аноним 10/08/20 Пнд 22:16:18 1773641305
Аноним 11/08/20 Втр 08:13:47 1773810306
15949572740980.jpg 92Кб, 648x597
648x597
>>1773502
>>1773616
> Прошел курс от skillfactory
Живая иллюстрация к поговорке "стою на асфальте в лыжи обутый, то ли лыжи не едут, то ли я ебанутый". Зумер вкатывальщик занёс бабла инфоцыганам, а теперь недоволен, что его и ему подобных максимум - пилить кабанчику один проект несколько лет.
Аноним 11/08/20 Втр 10:58:04 1773838307
Аноним 11/08/20 Втр 11:00:04 1773841308
Аноним 11/08/20 Втр 11:04:44 1773844309
Аноним 11/08/20 Втр 11:16:59 1773848310
>>1773810
>>1773616
Живая блядь иллюстрация к тому что шиз вообще залётный школьник скорее
Аноним 11/08/20 Втр 11:24:02 1773852311
>>1773848
Живая иллюстрация, что даже он не стал смотреть эту хуйню
Аноним 11/08/20 Втр 11:31:31 1773859312
1456439361567.png 13Кб, 640x186
640x186
1540792678472.png 13Кб, 602x357
602x357
Чуваки, как побороть эту ебаку? CPU считает в 50-100 раз медленнее, алё. Уже три учетки перепробовал, пидарасы из гугла сразу детектят. Прошло больше суток, сколько еще ждать?
Аноним 11/08/20 Втр 11:53:10 1773863313
>>1773852
О, а вот и настоящие зумеры на пердаках подлетели
Аноним 11/08/20 Втр 13:07:39 1773975314
Аноним 11/08/20 Втр 13:20:37 1774003315
>>1773975
Все понятно, типичный токсичный хуесос с хабрапомойки
Аноним 11/08/20 Втр 13:36:28 1774060316
>>1774003
По-моему, токсичный рвущийся хуисас тут ты
Аноним 11/08/20 Втр 13:42:43 1774072317
>>1773863
Есть такая примета, смотришь на ютубе видео про вкат в любую профессию, тебе пизда, ты не вкатишься. Потому что тема тебе на самом деле не интересна, тематическая инфа сложна, а реворд получить хочешь, вот и смотришь якобы полезные видео с 0 полезной инфы. Чел живет в своем пузыре, а рынок большой и огромный. Единственное, что можно сказать, глядя него, инглиш должен быть fluent, а работа на рашкоэкономику ведет к тому самому dnn.readNetFromSlesarplow и мозговой деградации
Аноним 11/08/20 Втр 13:52:20 1774084318
>>1774060
У вкатыша стадия отрицания, не трогай
Аноним 11/08/20 Втр 13:53:45 1774089319
>>1774072
>инглиш должен быть fluent
>рашкоэкономику
>смотришь на ютубе видео
Швабропидор, ты зачем из свой швабропомойки вылез?
Аноним 11/08/20 Втр 13:58:05 1774095320
>>1774072
>инглиш должен быть fluent, а работа на рашкоэкономику
Ох уж эти мечты о зелёной траве и "большом и огромном" рынке у соседа. Ага, это же не то что бы ml в бизнесе заграницей стал применяться намного раньше, тем самым раньше сведясь к "заткнись и поддерживай" рутине, неее.
Аноним 11/08/20 Втр 13:58:09 1774096321
>>1774089
>>>смотришь на ютубе видео про вкат в любую профессию, тебе пизда, ты не вкатишься
>>смотришь на ютубе видео
У тебя дислексия что ли?
Аноним 11/08/20 Втр 14:56:33 1774241322
Аноним 11/08/20 Втр 15:19:33 1774281323
Поясните лучше мем про Slesarplow.
Это вообще что?
Аноним 11/08/20 Втр 15:31:14 1774312324
>>1774281
Фреймворк для датаслесарей
Аноним 11/08/20 Втр 17:15:21 1774484325
>>1774281
> Поясните лучше мем про Slesarplow.
> Это вообще что?
Tensorflow.
Аноним 11/08/20 Втр 17:25:11 1774488326
Дата-сатанист - меркетолух с питоном вместо экселя?
Аноним 11/08/20 Втр 18:34:22 1774555327
Аноним 11/08/20 Втр 22:23:57 1774713328
>>1773859
>Чуваки, как побороть эту ебаку? CPU считает в 50-100 раз медленнее, алё. Уже три учетки перепробовал, пидарасы из гугла сразу детектят. Прошло больше суток, сколько еще ждать?
Зачем ты лезешь в ML, не имея своей видеокарты? Если нет денег, то для начала устройся программистом, поработай несколько лет, наберись опыта. После этого вкатываться в ML будет намного легче, и будут деньги чтобы без задней мысли купить два титана.
Аноним 11/08/20 Втр 22:25:26 1774714329
>>1773859
Купи себе 2080 и считай на своем компе
Аноним 12/08/20 Срд 05:16:07 1774854330
>>1774714
На колабе что-то типа 1060 с в 2 раза большим объемом памяти, цена вопроса меньше 10к
путь зумера вкатывальщика Аноним 12/08/20 Срд 07:52:34 1774875331
15933077694650.png 83Кб, 511x407
511x407
>>1774713
> Зачем ты лезешь в ML, не имея своей видеокарты?
> занеси дяде за видеокарту
> занеси инфоцыганам за шад
> проследуй в "мы вам перезвоним" тред
Аноним 12/08/20 Срд 07:57:38 1774876332
Пасаны, дайте тактический совет.

Я использую jupyter чтобы быстренько покопаться в лог-файлах и построить отчетность. Да,это не ML, но спросить больше негде.

Код представляет из себя последовательность преобразований и я могу вставить туда ipywidgets для интерактива.
Сначала логи скачиваются, потом ниже обрабатываются. Все этапы в отдельных ячейках.
Эта структура кода нетипична для программиста.

Какой наиболее удобный способ опубликовать приложение прямо в виде notebook чтобы я мог продолжать его менять без изменения линейной структуры?

Я попробовать voila,но оно просто исполняет все ячейки подряд, а к интерактивной кнопке придется вызвать функцию и я не смогу пересчитать отдельные ячейки.
Я знаю про streamlit, но он тоже требует сменить концепцию.

Каким вы делаете самый первый прототип приложения?
Аноним 12/08/20 Срд 08:37:40 1774885333
>>1774713
>>1774714
У меня есть, хочу обучать одну модель у себя, а вторую халявно ебошить в колабе. Покупку ещё одной карты не предлагать. Потому что тогда я буду обучать две модели дома, а третью в колабе и т.д.
Аноним 12/08/20 Срд 09:20:11 1774888334
>>1774885
>У меня есть, хочу обучать одну модель у себя, а вторую халявно ебошить в колабе.
Если ты реально купишь 2080, которая работает на порядок быстрее того, что есть в колабе, ебаться с банами ради тамошних тормозных карточками ты уже не будешь. На самом деле даже с 1080 уже не будешь.
А лучше научись грамотно делать исследовательские модели. 99% твоих йоба идей можно проверить на MNIST на бабушкином утюге за 5 минут.
Аноним 12/08/20 Срд 10:43:15 1774905335
IMG202008092030[...].jpg 1301Кб, 4000x3000
4000x3000
>Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.

Порылся так и не нашел никаких модификаций перцептрона, только другие архетектуры нейросеток. Разве в прогнозировании фондового рынка не обычный перцептрон юзают?
Аноним 12/08/20 Срд 10:56:24 1774909336
>>1774555
Ебать он сладенький пупсик с крашенными губками.
Аноним 12/08/20 Срд 10:57:27 1774910337
1476241952izves[...].jpg 32Кб, 800x471
800x471
>>1774909
Типикл датасаентист пикрил
Аноним 12/08/20 Срд 11:29:21 1774928338
Untitled.png 357Кб, 826x577
826x577
>>1774555
Большинство же около верхнего угла?
Аноним 12/08/20 Срд 12:25:01 1774980339
>>1774928
Ага, это петушиный угол
шутка ради шутки, на самом деле петушиный угол это справа снизу
Аноним 12/08/20 Срд 12:38:26 1774997340
Парни, я задумался о новом компе. Комп будет общего назначения (разработка, сайты, фильмы, игры, machine learning). Особо гонять видуху не буду (не чаще пары часов в месяц на ML, она видео рендерить будет чаще чем machine learning), но всё же.
Вот сейчас выбираю видео-карту. Титос за сто тысяч брать жаба душит
https://market.yandex.ru/catalog--videokarty/55314/list

RTX 2070 (за 50 тысяч) это минимум? Или GTX 1660 (за 20 тысяч) пойдёт?
Аноним 12/08/20 Срд 13:41:20 1775037341
>>1774997
>Титос за сто тысяч брать жаба душит
Ну это совсем деньги на ветер, для датацентров всяких
>RTX 2070 (за 50 тысяч) это минимум
Он же по 40 скорее. Если есть 20к на 1660, лучше добавить 4к и купить 2060.
Если таких денег нет, велком на рынок б/у 10xx.
>видео рендерить будет чаще
Тогда лучше загугли бенчмарки по видео. В диплернинге скорость не так важна, ну реально, 6 часов или 8 будет что-то тренироваться, один хер долго. Гораздо важнее объем памяти, но не для твоих целей.
Аноним 12/08/20 Срд 13:53:29 1775054342
>>1775037
> Он же по 40 скорее
https://www.citilink.ru/catalog/computers_and_notebooks/parts/videocards/1174210/
RTX 2070SUPER за 44 100. Окей

https://market.yandex.ru/compare/9a07226d01a7cc5f67c5774bb1f3c2ebdec244900fac8af01dd7d3ae66ed5d7a?hid=91031&id=363510162&id=605227088&id=647027659

Самая присамая дешёвая RTX 2060 стоит 26 000 (средняя от 35 000). Но если это того стоит, то я готов.

Окей, спасибо, буду думать
Аноним 12/08/20 Срд 14:07:59 1775074343
>>1775054
>Но если это того стоит, то я готов.
С парой часов в месяц на ML - не стоит, для этого есть гугл колаб. Если решишь заняться серьезно, к тому моменту цены дропнутся. Посмотри перформанс на рубль для рендеринга своего видео/игор и решай тогда. Единственное У видюх сейчас слишком дохуя параметров (скорость, память, поддержка fp16), чтобы сходу можно было подобрать под свой бюджет.
Аноним 12/08/20 Срд 14:13:44 1775086344
Аноним 12/08/20 Срд 15:53:20 1775179345
>>1775086
Посмотрел на x2. Вообще ни о чём
Аноним 12/08/20 Срд 15:55:13 1775185346
Пиздец, стерли релевантный коммент. Надо было съебать из этой помойки еще в прошлый раз. Большего, чем флуда в перезвоним-треде этот мочан недостоин
Аноним 12/08/20 Срд 15:57:32 1775189347
>>1775185
Ты долбоёб, потому что. Человек закинул порнуху. Никогда не отвечай на порнуху и никогда не отвечай долбоёбам, которые ответили на порнуху. И никому из них. И из этих. Трут всю ветку. Я поэтому не отвечаю в одном посте сразу многим, а разбиваю по паре сообщений. Если потрут, то не всю ветку
Аноним 12/08/20 Срд 15:58:08 1775190348
>>1775185
Во тебе копия:

>>1775086
Пиздец он разводила конечно. Работадатель слил цену трешки в москве, чтобы этот хер мог дальше надрачивать себе рейтинг на кагле и толкать свои неинформативные телеги на митапах. Наверное мотивирует это тем, что он престиж конторы повышает, ну либо делит откат с отделом закупок.

Ответ:
Таких как он приглашают выступать на митапы. Лул.
Аноним 12/08/20 Срд 16:09:13 1775202349
Аноним 12/08/20 Срд 17:32:37 1775295350
1451688198855.gif 34Кб, 532x669
532x669
1456988513531.mp4 18690Кб, 853x480, 00:00:54
853x480
>>1774888
> На самом деле даже с 1080 уже не будешь.
Не учи батю мимо унитаза срать
Аноним 12/08/20 Срд 18:02:07 1775344351
>>1775295
Птушник даже не понял, почему я написал про 1080. Впрочем, хуй с ним
Аноним 12/08/20 Срд 18:03:21 1775346352
1460559291706.mp4 13049Кб, 853x480, 00:00:13
853x480
>>1775344
Эта зависть бесценна :D
Аноним 12/08/20 Срд 19:01:27 1775416353
Есть материалы по самостроящимся нейронным сетям?
Аноним 12/08/20 Срд 19:20:18 1775429354
>>1774980
>на самом деле петушиный угол это справа снизу
Слева снизу.
Аноним 12/08/20 Срд 19:29:58 1775433355
>>1775429
Слева снизу блатные
Аноним 12/08/20 Срд 19:44:13 1775444356
>>1775433
>Слева снизу блатные
Блатные сверху - затратили меньше всех усилий и времени, но в то же время управляют остальными и зарабатывают больше всех. Мужики справа снизу - работают за достойную зарплату, но выполняют намного больше работы чем блатные, которым они подчиняются. Петухи слева снизу - работают за идею и миску риса, презираемы как блатными, так и мужиками.
Аноним 12/08/20 Срд 19:47:26 1775446357
>>1775444
Петуха забыли спросить
Аноним 12/08/20 Срд 20:10:27 1775455358
datascientist.png 136Кб, 482x400
482x400
>>1775446
>Петуха забыли спросить
Аноним 12/08/20 Срд 21:28:43 1775515359
>>1774555
Я не понел, рисёрчеры придумывают новые методы и пишут статьи, аналитики чертят графики и пиздят с презентациями заказчикам, инженеры натягивают хадуп из семи залуп, а кто собственно модели-то тренирует, решает практические задачи? Ну шоб как на каггле, только ещё и без готовых данных и чёткой постановки проблем? Это типа Дата аналитики?
Аноним 12/08/20 Срд 22:27:10 1775541360
>>1775515
>а кто собственно модели-то тренирует, решает практические задачи?
Стажёры.
Аноним 12/08/20 Срд 22:53:36 1775556361
Аноним 13/08/20 Чтв 11:30:56 1775835362
>>1775515
Ты так нихуя и не понял? "Пиздят заказчикам" - это и есть практическая задача мошиах лернинга. А по твоему вопросу - just stack more layers
Аноним 13/08/20 Чтв 11:42:34 1775843363
15972209618470.png 281Кб, 826x577
826x577
Аноним 13/08/20 Чтв 12:03:55 1775852364
Можно сказать, что не знаю в МашОбе ничего. Но сейчас смотрю видео с одним математиком, и он сказал, что МашОб сейчас в большинстве своем - функциональный анализ, тогда как у вас в шапке написано "базовый матан".
Так как на самом деле?
Аноним 13/08/20 Чтв 12:09:58 1775865365
>>1775852
В шапке правильно написано. Нотация может быть любая, в том числе и с применением функционалов и операторов, как у того же Вапника, но в общем случае это выебоны.
Аноним 13/08/20 Чтв 12:43:30 1775904366
Screenshot2020-[...].png 194Кб, 692x420
692x420
>>1775515
>а кто собственно модели-то тренирует, решает практические задачи
МЛ-инженер
>Это типа Дата аналитики
Аналитик работает в экселе, дата аналитик выучил питон и работает в pandas
Аноним 13/08/20 Чтв 15:26:17 1776118367
>>1775904
>МЛ-инженер
Сколько вакух на ML engineer не просмотрел, везде в обязанностях только поддержка пайплайнов, хадуп через спарк и в лучшем случае выкатка в прод.
Аноним 13/08/20 Чтв 16:08:38 1776194368
>>1776118
Не знаю, где ты смотрел, возможно ты набрал на хх.ру ml engineer и там вылезла куча позиций типа data engineer
https://hh.ru/vacancy/38309102 - разработка, деплой на мобилах, оценка алгоритмов
https://hh.ru/vacancy/37711158 - подготовка датасета, обучение нейронок, и только потом хадуп
https://hh.ru/vacancy/38089770 - изучение, адаптация и внедрение SOTA
https://hh.ru/vacancy/38364004 - мутные требования, но тоже разработка алгоритмов
https://hh.ru/vacancy/36734347 - разработка алгоритмов, сбор датасетов
https://hh.ru/vacancy/38131473 - проработка архитектуры сервиса, и построение data-sets, и feature engineering
https://hh.ru/vacancy/38458529 - Исследование и внедрение алгоритмов и инструментов ML

>хадуп через спарк
А чем тебе хадуп и спарк не нравятся? Йоба-датасеты можно препроцессить и на SparkML обучать
Аноним 13/08/20 Чтв 16:42:20 1776241369
>>1776194
А, ну может сейчас исправились.
Когда меня года полтора назад приглашали на мл инжинера (случайно видимо), мне всегда говорили ну мл это хорошо, но нам это не надо, скажите а есть ли у вас опыт разворачивания сервисов?
Аноним 13/08/20 Чтв 16:52:03 1776252370
>>1776241
> ну мл это хорошо, но нам это не надо
Ну учитывая что это вообще все вакансии на эту позицию в Москве (еще можно несколько нарыть с другими заголовками), не особо и надо.
Проще научиться девелопменту (например разбираться лучше всех в CUDA), а потом перекатиться внутри конторы.
Аноним 13/08/20 Чтв 17:51:19 1776363371
Где взять два года опыта работы?
Аноним 13/08/20 Чтв 17:57:42 1776375372
Аноним 13/08/20 Чтв 18:34:11 1776416373
>>1776375
>имитационное моделирование различных процессов и систем в области радиолокации и радиотехники в программной среде MatLab.

молодец, хорошо пошутил, а теперь вспомни название треда плиз
Аноним 13/08/20 Чтв 21:10:07 1776516374
15973192814860[[...].png 12Кб, 892x265
892x265
Аноним 13/08/20 Чтв 21:14:52 1776521375
>>1776516
Хуя требования.
Легче тогда уж вручную таким челам писать. С десяток незанятых наверное наберется.
Аноним 13/08/20 Чтв 21:16:33 1776526376
>>1776516
Вполне себе требования. Даже итт половина имеет PhD.
Аноним 13/08/20 Чтв 21:20:55 1776531377
>>1776516
Там платят дофига + это билет в Большой Машоб. Ясно что там все кодерки эрефии бы подали сиви. Поэтому могут выбирать самый топчик.

Ты еще не знаешь требовамий на ML-PhD в топ лабах США. Там нужно иметь несколько статей в топ конференциях (при том что ты еще даже не начал ПхД), рекомендации от известных профессоров, мастер из лиги плюща - это минимум чтобы тебя вообще рассмотрели. В МЛ адовая крысиная гонка сейчас.
Аноним 13/08/20 Чтв 21:23:29 1776539378
>>1776531
>Там платят дофига
>Junior Сomputer Vision Algorithm Developer/intern
60-80к, не больше.
Аноним 13/08/20 Чтв 21:27:29 1776545379
>>1776539
Не знаю именно по этой вакансии, но вообще по слухам Хуавей платит радикально больше, чем другие конторы в рахе.
Аноним 13/08/20 Чтв 22:24:04 1776606380
>>1776539
>60-80к
В месяц или год?
Аноним 13/08/20 Чтв 22:51:20 1776637381
>>1776521
Да нет там таких требований, это китайцы что-то намудрили. Посмотри, чел даже запятые правильно поставить не может, он мог точно так же неправильно понять слово "требования". Реальные требования - мага, английский, С++ уровня лаба.цпп, опыт работы.
>>1776539
Больше раза в полтора
Аноним 13/08/20 Чтв 23:03:55 1776646382
>>1776637
Ты реально думаешь, что там херки не русские?
Аноним 13/08/20 Чтв 23:11:49 1776650383
>>1776646
При чем тут херка? Она скорее всего скопипастила требования которые ей китаец дал. Тут дело даже не в том что пхд, а что и пхд и призер и медаль. Это бред, так не бывает. Ну а еше я знаю тех кто там работает. Разные люди там
Аноним 13/08/20 Чтв 23:15:43 1776652384
>>1776650
> Тут дело даже не в том что пхд, а что и пхд и призер и медаль. Это бред, так не бывает
Почему?
Аноним 13/08/20 Чтв 23:36:40 1776664385
>>1776652
Потому что таких людей можно и самому найти, а не подавать объевление???
Аноним 13/08/20 Чтв 23:43:10 1776668386
15582200913501.jpg 47Кб, 720x720
720x720
Расскажите свою историю успеха вката в машин лернинг.

Сам пока что прохожу курсы по математики и курс от МФТИ на степике.
Аноним 13/08/20 Чтв 23:53:52 1776673387
>>1776606
>В месяц или год?
Рублей в месяц.
Аноним 14/08/20 Птн 00:12:18 1776690388
>>1776673
Заканчивать МФТИ/ВШЭ/МГУ, чтобы работать за меньше 1к баксов в месяц на китайцев это очень смелый, но глупый поступок.
Аноним 14/08/20 Птн 00:46:20 1776712389
>>1776690
>Заканчивать МФТИ/ВШЭ/МГУ, чтобы работать за меньше 1к баксов в месяц на китайцев это очень смелый, но глупый поступок.
А что ты хотел? Зарплаты во всех областях IT примерно одинаковые. Джун получает 60к независимо от того, занимается он машобом или веб-макакингом.
Аноним 14/08/20 Птн 01:27:59 1776739390
>>1776668
Да не вопрос. Учился на мехмате МГУ, программировать получалось, но мне было скучно именно сам код набивать, взял академ, попробовал курсы на курсере, понял, что это прет, у меня таллант к этому, понравилось, поступил в более слабый аналог ШАД, учился, дрочил машинку, доучивал матешу, которую не доучил, что-то наоборот лучше понял, взяли на работу сначала кодером, проявил себя и взяли джуном.
То, что я видел на курсере, кстати - это вообше пыль, там дают общие сведения на пальцах по простейшим алгосам, ни работать с данными, ни базовых основ реальных алгоритмов, ни нормальной математики, ни подводных камней - ничего этого нет. Я уж не говорю про то, что полноценного курса по нейронкам еще ни разу не видел, обычно на пальцах ганы и говноенкодеры показывают, не более.
Аноним 14/08/20 Птн 02:19:18 1776759391
>>1776739
stepik.org/org/dlschool
Что скажешь за их курсы? Норм?
Аноним 14/08/20 Птн 04:24:11 1776780392
>>1776739
ИМХО сам формат видеокурса не подходит для серьезных тем. Помимо лекций, нужно еще читать книгу (диплернингбук и т.п.), делать упражнения - самому все реализовывать, копаться с данными, разбираться почему не работает, подбирать гиперпараметры. Кагл для этих целей неплохо подходит - не за призы бороться, а, скажем, хотя бы в серебро попасть.
Если ты просто отсмотрел видосики как аниме, клюя носом, то время потрачено зря.
Аноним 14/08/20 Птн 07:56:55 1776808393
>>1776780
> Если ты просто отсмотрел видосики как аниме,
Так это и есть аниме. Рассчитанное на зумеров с клиповым мышлением. Для нормальных людей источник знаний - книга, уже не первое тысячелетие, к слову.
Аноним 14/08/20 Птн 08:07:10 1776815394
>>1776637
>Да нет там таких требований, это китайцы что-то намудрили.
Ахах)
Аноним 14/08/20 Птн 08:15:49 1776818395
v-they-are-bill[...].jpg 441Кб, 1200x638
1200x638
>>1776637
Нейронки на хайпе + пандемия с увеличившейся безработицей = дохуя вкатышей. Вот они планку и подняли.
Аноним 14/08/20 Птн 08:53:05 1776828396
>>1776690
Еще более глупый поступок - слушать шизиков по поводу зарплат. При чем один такой шизик спизданет что-то, другой подхватит, а через месяц это уже устоявшаяся инфа от анона.
Аноним 14/08/20 Птн 10:27:48 1776883397
>>1776759
Смотрел только со степика. Все то же самое, что и про курсеру. Вообще нет онлайн курсов подобного формата, где что-то бы отличалось.
Кстати, имейте в виду, что сейчас выпускников подобных курсов, как грибов после дождя, неадекватное количество какое-то, туда 30-40 летние управленцы из других специальностей идут.
>>1776780
Не совсем, кагл пропускает мимо большинство проблем, которые влияют на качество заметно сильнее, чем шатание фичей и моделей. Какие-то шишки набить можно, основные, но не более.
Книги - конечно лучше и глубже чем курсы, тот же дип ленинг бук уже серьезная основа. Но лишь основа, практики там нет никакой, кроме того же шатания моделей.
Аноним 14/08/20 Птн 10:29:26 1776887398
>>1776818
>Вот они планку и подняли.
Не подняли, я такую хуйню на собесах творил и говорил, а меня все равно зовут, потому что я реально джун. А вкатыши как вкатились, так и пытаются свои пет проджекты пилить, да статьи на хабре читать.
Аноним 14/08/20 Птн 10:29:39 1776888399
>>1776808
>Для нормальных людей источник знаний
Университеты с лекциями и семинарами. Но это во все времена был крайне дорогой формат, который в массовом варианте изжил себя, потому что лекция имеет смысл, когда у тебя хороший лектор, а не хуй с горы, и хорошие студенты, потому что караван идет со скоростью самого медленного верблюда. То есть в 20 веке все думали, раз со школами получилось добиться массовой грамотности, то мы ща наштампуем университетов, и все будут массово инженерами. А на самом деле уровень инженерии упал ниже плинтуса.

Зато удаленка улучшает именно массовый вариант - посмотрел лекцию топового чувака бесплатно, прочитал главу в учебнике, сделал упражнения без гугла, в чатике обсудил с себеподобными, а так как разные люди обращают внимание на разное, погрузился в тему еще больше.

А книги рожают типичных дилетантов, потому что отсутствует главное - обратная связь от реальности. Человек погружается в свой манямир и живет там.
Аноним 14/08/20 Птн 10:44:24 1776914400
>>1776888
> А книги рожают типичных дилетантов, потому что отсутствует главное - обратная связь от реальности. Человек погружается в свой манямир и живет там.
С чего бы? Книга это теория, конкретное программное обеспечение - практика, полученные результаты - обратная связь от реальности.
Аноним 14/08/20 Птн 11:54:25 1776974401
>>1776780
>ИМХО сам формат видеокурса не подходит для серьезных тем. Помимо лекций, нужно еще читать книгу (диплернингбук и т.п.), делать упражнения - самому все реализовывать
Так в нормальном курсе есть упражнения, которые проверяет робот, пдфка для справок во время делания дз и тусовка (и не одна), в которой одни люди задают вопросы, а другие отвечают. Они берут массовостью и массовость решает. Даже если ты очень умный, из 10к людей найдется такой, который задаст вопрос, который поставит тебя в тупик. В универах ничего подобного нет.
Проблема у курсов в другом. Курс хорош, когда ты к нему готов. Тогда он идет легко, и затраченные усилия не кажутся потерей времени.

А как поступают вкатывальщики? Первая мысль - да, я ебанил 10 лет, то сейчас я замотивирован. Буду страдать. Далее записывают себя на курс, после которого можно сразу идти зарабатывать джуном. Очевидно это будет не курс линала, за линал не платят.
Этот курс, сука такая, содержит всю нужную инфу начиная с объяснения, что такое матрица, поэтому производит впечатление, что можно и не знать, что такое матрица, вот же все объяснено.
Проблема в том, что эта инфа нужна для освежения информации и знакомства с нотацией конкретного лектора, а вкатывальщик думает, что это и есть курс. И не понимает, с хуя первые полчаса все понятно, а потом начинается какая-то жесть. Сидит, гуглит. Нагугленная инфа забывается так же быстро, как гуглится. В итоге по окончанию курса человек не помнит нихуя, даже въебав часы в это все. Зря такой курс не прошел естественно - тот же линал пойдет легче, а после этого можно вернуться уже в ML. Но вкатывальщик об этом не знает, он начинает поносить курсы и говорить, что всю инфу можно и так нагуглить.
И ему либо не везет и он идет в макдак, либо навыки жулика срабатывают и он-таки попадает на джуна, будучи нулем.

Поэтому если охота учиться по курсам, надо открыть программу любого вуза и идти по дереву этих самых курсов. Это будет круче книг и заборостроительных вузов.
Аноним 14/08/20 Птн 12:48:52 1777058402
>>1776545
По каким слухам, по этим? https://www.interfax.ru/russia/716731
Это они когда кого-то конкретного переманивают не скупятся
Платят ниже рынка
14/08/20 Птн 12:53:54 1777062403
>>1777058
Бабушкин вообще жаловался, что его месяц по собесам гоняли, а потом предложили меньше, чем он сразу сказал, что даже говорить не будет, еще и обосновали это типа: для вас же не деньги главное - заходы уровня тинька, короче.
Аноним 14/08/20 Птн 13:00:37 1777073404
>>1777062
> для вас же не деньги главное
Да... Люди же на работу не деньги зарабатывать устраиваются.
Аноним 14/08/20 Птн 13:06:37 1777087405
>>1777073
Вообще такое иногда бывает, но это касается сеньоров-помидоров, которые уже давно пилят проект, их иногда перестают деньги ебать, но в основном потому, что им платят очень много и у них уже все есть и им интереснее проект делать.
Аноним 14/08/20 Птн 13:27:44 1777117406
>>1776828
>Хуавей
>ряя шизики!
Аноним 14/08/20 Птн 13:43:55 1777144407
>>1758961 (OP)
Приветики, как там ваш мл в 2020? Где подвижки, почему ничего не делаете?
Аноним 14/08/20 Птн 13:51:16 1777153408
>>1777117
Конечно шизики, а хули ты хочешь. Какие-то собственные фантазии выдаются за 100% инфу и начинается дружный самоподдув. Один вообще начал дрочить на какого-то балабола из пятерочки. Ебать, оказалось где-то нужно работать, а не просто языком молоть.
Аноним 14/08/20 Птн 13:53:51 1777156409
15973422122320[[...].png 12Кб, 892x265
892x265
>>1777144
Потому что олимпийскую суперкоманду еще не собрали.
Аноним 14/08/20 Птн 14:01:45 1777167410
>>1777153
>Какие-то собственные фантазии
Нихуя отрицание. Чел, это не "фантазии", а объективная реальность рынка
Аноним 14/08/20 Птн 14:03:37 1777169411
1570993208229.jpg 1789Кб, 2060x1490
2060x1490
Аноним 14/08/20 Птн 14:05:32 1777173412
>>1777156
Бля это про меня, дай ссылку на вакансию.

Аноним 14/08/20 Птн 14:26:17 1777195413
>>1777153
>балабола из пятерочки
Сладенький Бабушкин
Аноним 14/08/20 Птн 14:32:57 1777208414
>>1776712
Вот это не очень понятно.
ведь джун МЛ участвует в принятии стратегических решений через одно рукопожатие до генерального. Ответственности дохуя.
Аноним 14/08/20 Птн 14:42:39 1777219415
>>1777153
> балабола из пятерочки
Буду каждый пук его засасывать и сюда скидывать. Просто, чтобы наслаждаться твоим бугуртом.
Аноним 14/08/20 Птн 14:44:37 1777227416
image.png 144Кб, 680x337
680x337
>>1777173
>Бля это про меня
>ищёт работу на сосаче
Аноним 14/08/20 Птн 14:44:40 1777228417
>>1777219
Он от любых персоналий, напоминающих ему о собственной ничтожности, горит. Вон, омежку мальцева сверху так же обосрал.
Аноним 14/08/20 Птн 14:48:21 1777234418
833915285607956[...].jpg 22Кб, 350x448
350x448
>>1777227
>2к20
>не искать работа на дваче
Аноним 14/08/20 Птн 14:48:36 1777236419
>>1777153
Ты хрюня из хуйвея что-ли? Оу, херроу!
Проблема только в том, что это только ты ничего не знаешь что творится в индустрии потому что маняфантазёр-ноулайфер; а все нормальные пацаны, как я например, через одну руку знакомы с теми кто в этой китайской параше поработал.
Аноним 14/08/20 Птн 14:49:28 1777237420
1558962036804.jpg 65Кб, 960x800
960x800
>>1777236
>через одну руку знакомы
Аноним 14/08/20 Птн 17:57:26 1777488421
Дорогие двачане, тут у меня встал вопрос хуй как в уже обученную нейронку добавить новый класс и дообучить её не теряя старые? Есть варианты кроме transfer learning и полного переобучения? Важно именно не переобучать с нуля, а дообучить уже готовое. С меня как обычно нихуя
Аноним 14/08/20 Птн 18:57:07 1777544422
>>1777237
Пидорашка всё про своё любимое
Аноним 14/08/20 Птн 19:03:27 1777551423
>>1777544
Пидорашки это те, кто "через одну руку знакомы" со всеми китайцами???
Аноним 14/08/20 Птн 19:50:09 1777584424
>>1777488
Сука, откуда вы дебилы лезете. Начитались говна на хабре, шаблонов научили и все. Оторви голову и дообучи с новым классом, пидорас.
Аноним 14/08/20 Птн 19:56:07 1777591425
>>1777584
Тогда прошлые по пизде пойдут
Аноним 14/08/20 Птн 20:08:18 1777608426
>>1777591
Кто прошлые? Почему?
Что?
Аноним 14/08/20 Птн 20:23:50 1777631427
>>1777208
>ведь джун МЛ участвует в принятии стратегических решений через одно рукопожатие до генерального. Ответственности дохуя.
Джун чистит вилкой данные. В принятии решений участвуют сеньоры/лиды и очень редко мидлы.
Аноним 14/08/20 Птн 21:47:22 1777698428
>>1777608
Про оторви голову я уже написал (transfer learning для тупых) прошлые классы пойдут по пизде из-за катастрофического забывания. Тк новые слои не увидят старых данных и обучатся только на новых блять
Аноним 14/08/20 Птн 23:11:01 1777738429
>>1777488
Натренируй новую сетку на задачу бинарной классификации: детектить новый класс или старые. Затем для инференса используй логику
if новая_модель.predict(x) = новый_класс:
    return новый_класс
else:
    return старая_модель.predict(x)
Аноним 14/08/20 Птн 23:13:01 1777741430
>>1777738
PS вместо всех старых данных используй какую-нибудь подвыборку для новой модели в смысле
Аноним 14/08/20 Птн 23:13:46 1777742431
>>1777208
> джун МЛ участвует в принятии стратегических решений через одно рукопожатие до генерального
а потом просыпается на лекции
Аноним 14/08/20 Птн 23:33:20 1777751432
>>1777742
У тебя есть опыт работы джуном мл или ты кукарекаешь с высоты своего опыта в вебе?
Аноним 14/08/20 Птн 23:35:31 1777754433
>>1777236
>Проблема только в том, что это только ты ничего не знаешь что творится в индустрии потому что маняфантазёр-ноулайфер
Я помогал знакомому туда устроиться джуном, он устроился (сам я там не работал и вооб