Программирование


Ответить в тред Ответить в тред

Check this out!
<<
Назад | Вниз | Каталог | Обновить тред | Автообновление
439 47 135

НЕЙРОНОЧКИ И МАШОБ ТРЕД №21 /ai/ Аноним 20/01/20 Пнд 21:14:46 15789781
1865.png (7Кб, 318x158)
318x158
bild.PNG (71Кб, 700x350)
700x350
machinelearning4.jpg (129Кб, 976x400)
976x400
QIYClFm.png (1164Кб, 1192x671)
1192x671
Очередной тред про хипстерские технологии, которые не работают.

Я ничего не понимаю, что делать? Либо в тупую import slesarplow as sp по туториалам, либо идти изучать математику курсы MIT тебе в помощь. Не нужно засирать тред вопросами типа "что такое сигма?".
Какая математика используется? В основном линейная алгебра, теорвер и матстат, базовый матан calculus многих переменных.
Что почитать для вкатывания? http://www.deeplearningbook.org/ | Николенко и др. "Глубокое обучение" На русском, есть примеры, но уже охват материала
В чем практиковаться нубу? http://www.deeplearning.net/tutorial/ | https://www.hackerrank.com/domains/ai | https://github.com/pytorch/examples
Где набрать первый самостоятельный опыт? https://www.kaggle.com/ | http://mltrainings.ru/
Где работать? https://www.indeed.com/q-deep-learning-jobs.html
Где узнать последние новости? https://www.reddit.com/r/MachineLearning/ | http://www.datatau.com/ На реддите также есть хороший ФЭК для вкатывающихся
Где посмотреть последние статьи? http://www.arxiv-sanity.com/
Где ещё можно поговорить про анализ данных? http://ods.ai/
Нужно ли покупать видеокарту/дорогой пека? Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Иначе выгоднее вложиться в 1080Ti или Titan X.

Список дедовских книг для серьёзных людей:
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: http://libgen.io/

Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.

Предыдущий:
https://2ch.hk/pr/res/1543969.html

Архивач:
http://arhivach.ng/thread/412868/
Остальные в предыдущих тредах

Там же можно найти треды 2016-2018 гг. по поиску "machine learning" и "НЕЙРОНОЧКИ & МАШОБЧИК"
Аноним 20/01/20 Пнд 21:30:58 15789942
Продублирую.
>>1577202
А ещё такой вопрос: если брать ту же задачу по Титанику и решать её при помощи нейронной сети, как выбирать:
1) Размер входного слоя - он будет зависеть от каждого пассажира?
2) Размер и количество скрытых слоёв
3) Размер выходного слоя - он будет равен количеству классов в задаче классификации?
Аноним 20/01/20 Пнд 21:39:03 15790083
на кросс валидации качество 0.91 а на отложке 99 это как понимать?
метрика r2
Аноним 20/01/20 Пнд 21:48:56 15790234
>>1578994
1) он будет зависить от количества параметров, которыми описывается один пассажир
2) как хочешь так и делай. Данных мало, значит лучше без нейронок меньше слоев (например, 0) и поменьше размер
3) обычно да, но если класса всего два, то делается один выход с сигмоидой и предсказывается вероятность спастись

>>1579008
может некоторые данные дублируются и попадают в отложенную выборку? данные перемешиваешь перед тем как разбить на фолды/разделить? сколько фолдов делаешь в кросс-валидации?
Аноним 20/01/20 Пнд 21:55:54 15790285
Есть база на 40мб в формате вопрос-ответ, тематика - кое-какая игра, вопросы +- одни и те же. Нужно научить скрипт отвечать на вопросы юзеров, основываясь на базе. Подскажите годных алгоритмов, наверняка есть куча готовых решений для этого. Пробовал сам делать, через ключевые слова, точность ответов 90%, нужно больше.
Аноним 20/01/20 Пнд 22:08:36 15790386
>>1579023
>1) он будет зависить от количества параметров, которыми описывается один пассажир
Спасибо.
А если там, например, таблица 20000 x 10000, где каждая колонка - отдельный признак, содержащий 0 или 1, но единиц у каждой строки от силы 15 - остальные нули.
Как тогда? Задавать 10000 входов?
Аноним 20/01/20 Пнд 22:25:59 15790617
Зачем в бустинг либах есть обработка категориальных признаков, без них же всё должно работать?
Аноним 21/01/20 Втр 00:35:33 15791278
>>1579061
Потому что в датасетах часто бывают категориальные признаки, и если их правильно обрабатывать, то метрики будут выше.
Аноним 21/01/20 Втр 01:02:28 15791449
>>1579127
Так а почему выше, если с бустенгом деревьях всё равно должно быть как закодированы кат признаки?
Аноним 21/01/20 Втр 10:35:43 157928310
>>1579038
> Задавать 10000 входов?
да
Можешь как-нибудь попытаться преобразовать данные, например, в SVD запихнуть. В случае слов в предложении всякие предобученные эмбеддинги используют
Аноним 21/01/20 Втр 12:53:47 157937311
image.png (72Кб, 979x512)
979x512
----------------- Options ---------------
batch_size: 4 [default: 1]
beta1: 0.5
checkpoints_dir: ./checkpoints
continue_train: False
crop_size: 256
dataroot: ./selfie2comics [default: None]
dataset_mode: unaligned
direction: AtoB
display_env: main
display_freq: 400
display_id: 1
display_ncols: 4
display_port: 8097
display_server: http://localhost
display_winsize: 256
epoch: latest
epoch_count: 1
gan_mode: lsgan
gpu_ids: 0
init_gain: 0.02
init_type: kaiming [default: normal]
input_nc: 3
isTrain: True [default: None]
lambda_A: 10.0
lambda_B: 10.0
lambda_identity: 0.5
load_iter: 0 [default: 0]
load_size: 256 [default: 286]
lr: 0.0002
lr_decay_iters: 50
lr_policy: linear
max_dataset_size: inf
model: cycle_gan
n_epochs: 100
n_epochs_decay: 100
n_layers_D: 3
name: resnet9_132to400_comics8 [default: experiment_name]
ndf: 64
netD: basic
netG: resnet_9blocks
ngf: 64
no_dropout: True
no_flip: False
no_html: False
norm: instance
num_threads: 4
output_nc: 3
phase: train
pool_size: 50
preprocess: resize_and_crop
print_freq: 100
save_by_iter: False
save_epoch_freq: 5
save_latest_freq: 5000
serial_batches: False
suffix:
update_html_freq: 1000
verbose: False
----------------- End -------------------
dataset [UnalignedDataset] was created
The number of training images = 1530
initialize network with kaiming
initialize network with kaiming
initialize network with kaiming
initialize network with kaiming
model [CycleGANModel] was created
---------- Networks initialized -------------
[Network G_A] Total number of parameters : 11.378 M
[Network G_B] Total number of parameters : 11.378 M
[Network D_A] Total number of parameters : 2.765 M
[Network D_B] Total number of parameters : 2.765 M
-----------------------------------------------
Setting up a new session...
create web directory ./checkpoints/resnet9_132to400_comics8/web...
Traceback (most recent call last):
File "train.py", line 44, in <module>
for i, data in enumerate(dataset): # inner loop within one epoch
File "/content/data/__init__.py", line 90, in __iter__
for i, data in enumerate(self.dataloader):
File "/usr/local/lib/python3.6/dist-packages/torch/utils/data/dataloader.py", line 345, in __next__
data = self._next_data()
File "/usr/local/lib/python3.6/dist-packages/torch/utils/data/dataloader.py", line 838, in _next_data
return self._process_data(data)
File "/usr/local/lib/python3.6/dist-packages/torch/utils/data/dataloader.py", line 881, in _process_data
data.reraise()
File "/usr/local/lib/python3.6/dist-packages/torch/_utils.py", line 394, in reraise
raise self.exc_type(msg)
OSError: Caught OSError in DataLoader worker process 3.
Original Traceback (most recent call last):
File "/usr/local/lib/python3.6/dist-packages/PIL/ImageFile.py", line 235, in load
s = read(self.decodermaxblock)
File "/usr/local/lib/python3.6/dist-packages/PIL/PngImagePlugin.py", line 659, in load_read
cid, pos, length = self.png.read()
File "/usr/local/lib/python3.6/dist-packages/PIL/PngImagePlugin.py", line 122, in read
length = i32(s)
File "/usr/local/lib/python3.6/dist-packages/PIL/_binary.py", line 82, in i32be
return unpack_from(">I", c, o)[0]
struct.error: unpack_from requires a buffer of at least 4 bytes

During handling of the above exception, another exception occurred:

Traceback (most recent call last):
File "/usr/local/lib/python3.6/dist-packages/torch/utils/data/_utils/worker.py", line 178, in _worker_loop
data = fetcher.fetch(index)
File "/usr/local/lib/python3.6/dist-packages/torch/utils/data/_utils/fetch.py", line 44, in fetch
data = [self.dataset[idx] for idx in possibly_batched_index]
File "/usr/local/lib/python3.6/dist-packages/torch/utils/data/_utils/fetch.py", line 44, in <listcomp>
data = [self.dataset[idx] for idx in possibly_batched_index]
File "/content/data/unaligned_dataset.py", line 58, in __getitem__
B_img = Image.open(B_path).convert('RGB')
File "/usr/local/lib/python3.6/dist-packages/PIL/Image.py", line 930, in convert
self.load()
File "/usr/local/lib/python3.6/dist-packages/PIL/ImageFile.py", line 241, in load
raise IOError("image file is truncated")
OSError: image file is truncated
Вот такая ошибка при обучении нейронки на google colab. Если запускаю на домашнем пека, то все ок. Я уже запускал нейронку на колабе эту же, с теми же настройками и работало как часы, а шас нихуя. Ебусь уже 2 часа и гугл нихуя не помог. на домашнем пека с теми же либами, настройками обучение идет
что можете посоветовать?
Аноним 21/01/20 Втр 19:21:27 157967612
Где посмотреть код в тензорфлоу, который пробрасывает градиент. Или он где-то внизу на крестах?
У меня тут интересная тема, машоберы Аноним 21/01/20 Втр 20:03:12 157971113
Помню, я опробовал однажды Алису. Ассистент от Яндекса, который якобы с ИИ и вообще даже обучаться может М - Маркетинг..
Собсна, я решил проверить. Задал несколько арифметических примеров, и быстро понял, что считать она не умеет. Не беда, казалось бы, можно и обучить. Но как бы я не старался, эта хуйня отказывалась обучаться.

Так вот, аноны, о каком ИИ может идти речь, если мы еще не можем обучить компьютер считать? Именно обучить, как ребенка. Сначала показать ему цифры(он должен уловить, что такое цифра), потом начать пересчет чисел(понять порядок чисел и понять как работают разряды), потом обучить плюсу и минусу. Вот тогда, когда ты на примерах покажешь счет, а компьютер уловит закономерности и сможет делать выводы, вот тогда можно говорить об обучаемости и ИИ.

Знаете работы по данной теме? Или у вас есть предположения, как это реализовать.
Аноним 21/01/20 Втр 20:11:38 157972114
>>1579711
Ее только яндекс может обучать.
Аноним 21/01/20 Втр 20:19:32 157973215
>>1579711
сначала ии должен осознать самого себя
Аноним 21/01/20 Втр 20:21:15 157973716
>>1579732
Нет, для счета осознанность не требуется.
Аноним 21/01/20 Втр 21:03:09 157980917
>>1579711
> Знаете работы по данной теме? Или у вас есть предположения, как это реализовать.
Эта тема сложнее чем кажется. Но эта задача решаема, я как раз этим занимаюсь.
> Так вот, аноны, о каком ИИ может идти речь, если мы еще не можем обучить компьютер считать? Именно обучить, как ребенка. Сначала показать ему цифры(он должен уловить, что такое цифра), потом начать пересчет чисел(понять порядок чисел и понять как работают разряды), потом обучить плюсу и минусу. Вот тогда, когда ты на примерах покажешь счет, а компьютер уловит закономерности и сможет делать выводы, вот тогда можно говорить об обучаемости и ИИ.
На примерах и улавливания закономерностей заебешься. И нет, алгоритм машобчика, умеющий в арифметику, мыслить не будет. Я тут пару лет назад какому-то долбаебу показывал, как даже обычный инженерный куркулятор легко может продолжить ряд типа 1,3,5,7,... Он заявлял, что нейроночки в такое не могут. Так вот, могут. И мыслить для этого не нужно. То что ты описал, намного сложнее, но опять же, никакой уличной магии не требует и не приведет ни к каким качественно новым умениям машобчика кроме самого умения считать.
Аноним 21/01/20 Втр 21:25:03 157986318
>>1579809
> То что ты описал, намного сложнее, но опять же, никакой уличной магии не требует и не приведет ни к каким качественно новым умениям машобчика кроме самого умения считать.
Так или иначе, мы научили компьютер.
Раз мы научили считать, то подобным образом его можно чему угодно обучить. Запоминаем факты, находим закономерности, исследуем аномалии, перезаписываем и дополняем известные знания. Сам счет бесполезен, вот метод, по которому машинка обучилась - вполне себе.
Аноним 21/01/20 Втр 21:37:23 157989119
>>1579023
>может некоторые данные дублируются и попадают в отложенную выборку? данные перемешиваешь перед тем как разбить на фолды/разделить? сколько фолдов делаешь в кросс-валидации?

дубликатов нету я их проверял и удалял через пандовские функции (df.duplicated().value_counts(), df2.drop_duplicates(inplace=True)). Разбиваю данные как обычно с помощью функции train_test_split c shuffle=True. фолдов 3 обучал на бустинге 5000 древьев
Аноним 22/01/20 Срд 00:55:47 158023020
>>1579144
Потому что обычно в решающих деревьях используется тупо отсечение по порогу, которое хорошо работает с ординальными признаками ("оцените по шкале от 1 до 5"), но плохо с категориальными ("выберите город проживания - Москва, СПб, Новосибирск, Челябинск, Владивосток").
Аноним 22/01/20 Срд 01:02:16 158024321
>>1579863
Куда проще научить его распознавать при разговоре числа и обозначения математических операций и строить из них формулу, после чего передавать её в специализированное приложение.

"Научили компьютер" - это очень человеческое понятие, не надо его куда ни попадя пихать, это чревато непониманием возможностей, завышенными ожиданиями и в итоге разочарованием. Мы оптимизировали некоторую функцию, всё.
Аноним 22/01/20 Срд 10:01:15 158044022
>>1579711
>Так вот, аноны, о каком ИИ может идти речь, если мы еще не можем обучить компьютер считать? Именно обучить, как ребенка.
Видимо в Древнем Египте с грамотностью людей на уровне единиц процентов, интеллекта ни у кого не было. А то хули они никого обучить не могли, были бы грамотными, построили бы космический корабль. Гуманитариев нельзя подпускать к ML, от гуманитариев ML тупеет. Поэтому держись подальше и все будет хорошо.
>Или у вас есть предположения, как это реализовать.
Нужно уходить от GEMM и оптимизации железа под GEMM. А это тяжело, потому что в GEMM вложены миллиарды и оно хорошо решает текущие задачи. Представь, что у тебя все нейроны в мозге думают одновременно, в итоге тебе нужно жрать в 1000 раз больше, провести отдельную систему канализации для отвода тепла и продуктов жизнедеятельности. Вот примерно такое состояние у современного ML. Это не значит, что твои охуенные мысли кому-то нужны.
Аноним 22/01/20 Срд 13:41:39 158062623
>>1580440
Раз хорошо решает задачи, то чего ещё желать? Никому не нужен робот-водитель, который ещё и разговор поддержать может, от него только водить требуется.
Аноним 22/01/20 Срд 14:22:06 158065224
>>1580626
>Раз хорошо решает задачи
Кудахтер что то хорошо решает только в больном матанопетушином вооброжаемом мирке
Аноним 22/01/20 Срд 22:52:12 158110225
image.png (29Кб, 1231x387)
1231x387
Антоны, у меня модель не хочет обучаться, лосс просто не падает и похоже, что он останется таким, сколько бы шагов обучения не происходило.
Модель из сверточной сети и lstm с аттеншионом.
В чем может быть проблема вообще? До этого она прекрасно обучалась и распознавала.
Может ли это быть из-за длинных последовательностей? Сет, на котором она обучалась первый раз у меня включал в себя всего 40 символов максимум на последовательность, сейчас я увеличил датасет, теперь максимальное предложение у меня 140 символов и оно не хочет обучаться
Аноним 22/01/20 Срд 22:53:43 158110326
>>1581102
Батч сайз 28, если что
Аноним 22/01/20 Срд 23:04:31 158111427
>>1581102
>не хочет обучаться
ремнем пригрози!))
Аноним 22/01/20 Срд 23:12:24 158112828
>>1581103
>>1581102
Хотя скорее-всего проблема в числе батчей, но если выставить много, то тензорфлоу сжирает память, пойду гуглить решения, как от этого избавиться, может она не учится из-за маленького батч сайза.
Аноним 22/01/20 Срд 23:47:13 158115829
013fakeB.png (616Кб, 512x512)
512x512
014fakeB.png (620Кб, 512x512)
512x512
027fakeB.png (594Кб, 512x512)
512x512
013fakeB.png (618Кб, 512x512)
512x512
хелпач
учу модель разукрашивать мангу. в датасет а запихнул черно-белую мангу, а в датасет б разукрашенную и точно такую же. Так вот, при обучении в 100 эпох примерно такой результат(смотри пикчу). учу модель размером в 256х256.
модель - https://github.com/junyanz/pytorch-CycleGAN-and-pix2pix
датасет на 1500 пикч

учить дальше или лучше не будет?
Аноним 23/01/20 Чтв 02:08:55 158120330
>>1581114
Да если бы можно было, попробовал решения с ограничением памяти, так не работает, при выставлении 32 и 64 батчей все крашится в пизду, на малом количестве батчей оно обучаться не хочет.
Ех, возможности расширенного инстанса гугл колаба я уже исчерпал, придется платить амазону.
Аноним 23/01/20 Чтв 09:42:20 158130131
>>1581203
У гпу-коллаба производительность как у 1060.
Аноним 23/01/20 Чтв 13:16:48 158145132
>>1581158
Блин. Было бы круто выхватывать граф реплик персонажей постранично из манги/комикса и распечатывть это в виде сценкрия (по полям).
Аноним 23/01/20 Чтв 13:56:05 158148433
>>1581451
>это в виде сценкрия
Будешь в школе спектакль ставить?
Аноним 23/01/20 Чтв 14:52:53 158153434
Антоны, есть где-нибудь гайды по использованию амазона?
Хочу у них таки купить инстанс и воспользоваться sagemaker для обучения своей нейроночки, только вот мне нихуя не понятно, просто контринтуитивный сервис.
Аноним 23/01/20 Чтв 18:35:49 158173135
>>1581484
В семье с батей по яой манге
Аноним 23/01/20 Чтв 20:40:06 158182136
Аноним 23/01/20 Чтв 21:49:06 158186137
>>1581821
Кинохронику про первую мировую раскрашивали нейросетью.
Аноним 23/01/20 Чтв 22:19:38 158188538
>>1581861
Держи в курсе
Какой?
Аноним 24/01/20 Птн 07:08:50 158202139
>>1579711
Потому что нужно разделение на нейронку и формальную логику. Вот как мы складываем/умножаем/делим в уме? Мы же не угадываем нейронкой примерный ответ. А выполняем четкие алгоритмические шаги.
Аноним 24/01/20 Птн 12:32:29 158216540
156141437317876[...].jpg (56Кб, 700x492)
700x492
>>1579711
>я опробовал однажды Алису
Аноним 24/01/20 Птн 12:37:37 158216941
Аноним 24/01/20 Птн 13:18:26 158219842
>>1582169
Взоржал с этих малолетних чмошников)))
Аноним 24/01/20 Птн 13:20:50 158220143
thumbimg52a309f[...].jpg (87Кб, 370x300)
370x300
Аноним 24/01/20 Птн 13:22:24 158220344
>>1582198
Ьоt-MARKOV ты? узнал тебя по оскорблениям
Аноним 24/01/20 Птн 13:27:35 158220845
155403710912076[...].jpg (20Кб, 400x230)
400x230
Аноним 24/01/20 Птн 13:55:25 158222046
>>1582169
Лахтоботы скоро станут ии.
Аноним 24/01/20 Птн 13:58:14 158222547
>>1582021
>Мы же не угадываем нейронкой примерный ответ.
Угадываем, я вот не затрачиваю ресурсы мозга на расчеты, я просто думаю над операцией и мозг сам дает ответ.
Аноним 24/01/20 Птн 14:13:18 158223848
>>1582021
>Вот как мы складываем/умножаем/делим в уме
Сейчас гуманитарный филосопетрович расскажет нам, как мы складываем в уме
Аноним 24/01/20 Птн 14:22:58 158224949
>>1582021
Правильно, надо научить нейронку счету древних шизов, ноль, целковый, чекушка.
>>1582225
Да ты-то вообще не думаешь.
Аноним 24/01/20 Птн 16:01:10 158230850
>>1582249
>Да ты-то вообще не думаешь.
Бля, вот это тейк, вот ты доказал свою позицию.
Аноним 24/01/20 Птн 16:03:23 158231051
>>1582308
Доказывать отсутствие? Пфф, точно не думаешь.
Это ты должен доказывать что ты думаешь
Аноним 24/01/20 Птн 17:10:49 158236152
>>1582310
> Доказывать отсутствие? Пфф, точно не думаешь.
Тебе не надо доказывать отсутствие, ты можешь просто пояснить, как оно происходит, но чуется мне, что ты хуй с горы и твое утверждение ни на чем не основано, ну просто не угадываем, значит не угадываем.
Аноним 24/01/20 Птн 19:16:58 158244853
Аноним 24/01/20 Птн 19:20:33 158244954
Аноним 24/01/20 Птн 19:51:50 158245955
>>1582449
Проиграл с нейронки.
Аноним 24/01/20 Птн 20:36:29 158248456
>>1582448
Ну вот это приходится раскладывать на простейшие, сперва ((3610)6)+(36*3)+13=2281, вот на простейшие операции я мозг не задействую.
Аноним 24/01/20 Птн 21:43:01 158251057
15443451318580.jpg (84Кб, 540x533)
540x533
ГДЕ ИСКАТЬ РАБОТУ?!
НА ХХ 1,5 ВАКАНСИИ ДЛЯ НЮФАГОВ В ОСТАЛЬНЫХ СЛУЧАЯХ ТРЕБУЕТСЯ ОПЫТ РАБОТЫ
Аноним 24/01/20 Птн 22:03:57 158251958
>>1582484
> на простейшие операции я мозг не задействую.
Типа ты имеешь в виду, что у тебя в памяти хранится таблица всех произведений до 100x100? Плюс ты как то должен был разложить на простейшие, а это тоже алгоритм.
Аноним 24/01/20 Птн 22:18:35 158252559
>>1582510
Устройся программистом и горизонтально перемещайся
Аноним 25/01/20 Суб 06:40:33 158265260
>>1582525
Да пошел ты нахуй черт
Аноним 25/01/20 Суб 06:41:51 158265361
image.png (435Кб, 382x604)
382x604
Аноним 25/01/20 Суб 06:46:24 158265662
image.png (657Кб, 729x344)
729x344
>>1580243
Вот чувствуется в тебе специалист, а не "ололо я делаю скайнет"
Аноним 25/01/20 Суб 08:36:41 158267163
Аноним 25/01/20 Суб 09:40:52 158267764
1563912330359.png (216Кб, 859x960)
859x960
>>1582525
Спасибо, но подводных камней хватает: ещё найти вакансию питониста в конторе, где есть перспектива устроиться в МашОб, ещё устроиться на эту вакансию, ещё переквалифицироваться (и не факт, что эта контора будет заинтересована тебя развивать, а не взять готового спеца).
>>1582671
Там преимущественно иностранные вакансии.
Эмиграции в ближайшие 1,5 - 2 года не входит в мои планы.

Может тут кто сжалится, лол?
Аноним 25/01/20 Суб 12:06:52 158270765
>>1582677
>Может тут кто сжалится, лол?
Пошёл нахуй зумерок, лол.
Аноним 25/01/20 Суб 14:17:23 158275466
Аноним 25/01/20 Суб 16:15:22 158283967
>>1580243
> Куда проще научить его распознавать при разговоре числа и обозначения математических операций и строить из них формулу, после чего передавать её в специализированное приложение.
А если приложение ограниченно? Вот не умеет логарифмы считать.
Аноним 26/01/20 Вск 17:51:58 158340668
Есть таблица с векторами. Пытаюсь запустить обучение на пайторче.
На вход модели подаю вектор, а мне:
'str' object has no attribute 'dim'
Щито делать?
Аноним 26/01/20 Вск 20:12:06 158350469
>>1583406
Закрыть пайторч. Открыть книгу по матану.
Аноним 26/01/20 Вск 21:13:18 158354670
>>1583504
> Открыть книгу по матану.
Охуительный совет, блять.
Ты когда к врачу приходишь, он тебе тоже даёт общий диагноз или отправляет читать книги по пат.анатомии?
Есть вопрос - то либо конкретизируй ответ, либо вообще ничего не пиши.
Матан охуеть какой большой, и изучать кучу книг потому что какой-то диванный специалист что-то спизданул - это охуеть какое неэффективное расходование времени.
Да и вангую там не в матане дело.
Аноним 26/01/20 Вск 21:17:43 158355071
>>1583406
shape есть? а если не найду?
Аноним 26/01/20 Вск 21:24:19 158355772
>>1582839
Проще найти и скачать более мощное, чем пытаться обучить нейронку саму считать.
Аноним 26/01/20 Вск 21:26:04 158355973
>>1583406
Искать, где там str возникло, чего тут ещё можно посоветовать, лол. Скорее всего в данных где-то.
Закрыть пайторч. Открыть документацию к пайторчу. Или хотя бы туториалы.
Аноним 26/01/20 Вск 21:38:21 158356974
Антоны, можете пояснить за тпу?
Я попробовал переписать свою модель под tpu, у меня обучение было через slim.learning.train, тут же через estimator.train.
Но потом я обломился, поняв, что базу нельзя читать с локального диска, а на гугл ведро нужно платить гугл облаку, которое недоступно в России.
Есть вариант закидывать все в оперативку, но большой датасет так не засунешь и есть проблема с делением всего на батчи, ибо никакого провайдера для такого нет.
Выходит, что обычному русскому смертному лучше вообще забыть об этом?
Аноним 27/01/20 Пнд 10:35:00 158384475
>>1583569
На авито можно за дешево собрать комп с HEDT процессором и 2-4 1080ti. Если постоянно кагглить для себя и пытаться выиграть, то этого будет достаточно и это дешевле аренды.
Аноним 27/01/20 Пнд 11:49:26 158388476
>>1583844
Ну на моем компе i5 процессор, а вот видеокарт и памяти не хватает.
Кагглить для себя - это участвовать в конкурсах kaggle? Я не настолько прошарен, чтобы с людьми, у которых и опыта больше и знаний в этой области конкурировать.
А две 1080ti выйдут под 50-60к, наверное в перспективе они окупятся.
Аноним 27/01/20 Пнд 13:13:36 158393577
>>1583844
> 2-4 1080ti
А не лучше взять rtx 2060?
Аноним 27/01/20 Пнд 13:37:31 158395178
>>1583935
Там памяти только 6 гигов. В fp32 лучше брать 1080ti.
Аноним 27/01/20 Пнд 13:39:16 158395279
>>1583884
Для 2-4 видеокарт лучше брать HEDT типа тредриппера первого покаления.
Аноним 27/01/20 Пнд 13:53:04 158395780
сап импорткерасы. вопрос по теме: есть ли исследования в области каких-то альтернативных подходов к машобу? в смысле концептуально других, основанных на других представлениях, например не на матрицах чисел. я сейчас не говорю про эффективность и приложимость на практике, а просто о существовании таких подходов. хотя бы теоретических.
Q: ты ебанулся, комплюхтеры же числодавилки, как ты себе представляешь чтобы они по-другому взаимодействовали с данными?
A: если бы представлял, уже бы делал что-то в этом направлении. интуитивно кажется, что в принципе может существовать другой подход. даже если он потребует другой архитектуры железа. а может и не существовать.
Аноним 27/01/20 Пнд 15:22:35 158400881
>>1583957
Есть спайковые нейронки, есть sparse матрицы, с которыми уже все хуево, есть аналоговые вычисления, есть оптические нейронки (обучать не умеют, зато инференс со скоростью света). Много чего есть
Аноним 27/01/20 Пнд 17:07:19 158407282
>>1584008
спасибо, анон. краем уха слышал про все кроме аналоговых
но это всё же нейронки, то есть подход по сути тот же. а есть что-нибудь совсем другое и оригинальное? стоит обратить взор на начало кибернетики, когда всё это дело развивалось, может быть там есть кардинально другие подходы?
Аноним 27/01/20 Пнд 18:07:31 158413283
>>1584072
Занимайся спайковыми сетями, Анон, я сам думаю это делать после того, как выучу основы классических сетей.
Под спайковые сети вроде даже нейропроцессоры делали, ничего интереснее и быть не может.
Я также в прошлом году видел еще сеточку, которая отличается от всех классических, только названия вспомнить не могу.
Аноним 27/01/20 Пнд 18:32:58 158415484
15771951994850.png (80Кб, 360x270)
360x270
>>1583957
> сап импорткерасы. вопрос по теме: есть ли исследования в области каких-то альтернативных подходов к машобу?
Есть. Нейросети и машины Тьюринга на основе аутокаталитических каскадных реакций энзимов (по типу реакции Белоусова - Жаботинского, но сложнее). По-сути, рабочие прототипы биочипов. Я думал, что такое только в киберпанке бывает, но это делали ещё в 80х годах, у меня где-то пейперы были, автор какой-то японец. Вот там точно никаких матриц шматриц.
Аноним 27/01/20 Пнд 18:34:23 158415585
>>1584154
>это делали ещё в 80х годах, у меня где-то пейперы были, автор какой-то японец
10 нечетких петухов из 10
Аноним 27/01/20 Пнд 18:42:03 158415986
Аноним 27/01/20 Пнд 19:11:38 158418787
Аноним 27/01/20 Пнд 19:35:39 158420388
>>1583957
nupic/numenta уже много лет сидят и свой неокортекс дрочат
Аноним 27/01/20 Пнд 20:57:45 158428589
Подскажите, господа, как загуглить инфу по "правильному" обучению модели с дроблением дата сета?
Типа берем 20% учим проверяем пока не достигнем удовлетворительного результата на 5% потом учим на других 20% и тд 4 раза.
Аноним 27/01/20 Пнд 21:38:14 158433390
Аноним 27/01/20 Пнд 21:54:21 158436391
Анон, помоги с первой сеточкой.
Есть заимствованный код:
model = ...
loss = ...
optimizer = ...

Потом пошли эпохи:

for e in range(epochs):
running_loss = 0
for images, labels in trainloader:
images = images.view(images.shape[0], -1)
optimizer.zero_grad()
output = model(images)
loss = criterion(output, labels)
loss.backward()
optimizer.step()

running_loss += loss.item()
else:
print(f"Training loss: {running_loss/len(trainloader)}")

И тут возникли вопросы - вышеприведённый код для MNISTа, а у меня не изображения, а обычный датафрейм 15х10.
Что мне надо сделать чтобы адаптировать код под него? Преобразовать его в тензор? Целиком или построчно? А что с названиями колонок?

Аноним 28/01/20 Втр 02:28:08 158447492
>>1584333
Кстати, да. Я тут постил ссылки на подобную тему, голуби реально могут распознавать снимки с раком и даже различать жанры в живописи на примере незнакомых им картин. Может быть, они и временные ряды могут предсказывать не хуже этих ваших нейроночек при достаточном обучении.
Аноним 28/01/20 Втр 03:40:41 158448193
>>1584363
Пошёл нахуй, говно. Иди учи питон, а потом читай документацию к панде.
Аноним 28/01/20 Втр 03:41:35 158448294
>>1584474
>голуби реально могут
Потому, что у них есть мозг и он работает не так как нафантазировали себе матанопетухи.
Аноним 28/01/20 Втр 04:37:37 158448895
>>1584482
> Потому, что у них есть мозг
Ага, а вот у тебя нету.
Вообще, вроде бы никто не пробовал использовать голубей для распознавания mnist там или капчи.
Аноним 28/01/20 Втр 05:11:40 158448996
>>1584488
>никто не пробовал использовать голубей
Ну вот пусть РАН и попробует, как раз уровень академичаских вговнемоченых.
Аноним 28/01/20 Втр 08:59:40 158451897
>>1584481
Что, говнецо, самоутверждаешься за счёт нюфагов? Ты настолько никчёмен, что боишься, что они тебя без работы оставят?
Ты жалок. Иди скули в /ga или откуда ты там вылез.
Аноним 28/01/20 Втр 09:20:39 158452998
>>1584518
>боишься, что они тебя без работы оставят?
Того неуча точно можно не бояться, раз он в коде на Питоне не может разобраться.
Аноним 28/01/20 Втр 09:55:22 158454299
Почему у шизика горит от зумеров-математиков?
Аноним 28/01/20 Втр 10:05:35 1584545100
>>1584542
> зумеров-математиков
Ты на ноль не дели. Зумеров математиков не существует.
Аноним 28/01/20 Втр 10:42:13 1584561101
Аноним 28/01/20 Втр 11:55:31 1584607102
А зачем выборку часто делят на три части: тест, трейн и валидацию где последнее это что-то вроде второго теста. Зачем нужен ещё один тест?
Аноним 28/01/20 Втр 11:57:30 1584609103
Антоны, какой размер картинок для OCR лучше всего?
Где-то читал, что гугл разделяет текст по строкам, может мне тоже так попробовать? Но текст же может быть разного шрифта, начиная с мелкого, заканчивая текстом во всю строку.
Или лучше тупо брать здоровую область и на ней нейронку обучать? Но тогда картинки будут иметь много всякой лишней хуйни типа здорового фона и прочих радостей жизни.
Аноним 28/01/20 Втр 11:57:54 1584611104
>>1584607

> А зачем выборку часто делят на три части: тест, трейн и валидацию где последнее это что-то вроде второго теста. Зачем нужен ещё один тест?

Что бы детектить зазубренное переобучение.
Аноним 28/01/20 Втр 13:35:26 1584694105
15773658236662.jpg (291Кб, 1280x719)
1280x719
Анон таки доставил. На ближайший год мне хватит.
>>1584203
>>1584132
Да, это интересно, но по сути развитие идеи нейронок по образу и подобию. Не слишком оригинальный подход, мне кажется.
>>1584154
>>1584159
> Я думал, что такое только в киберпанке бывает
Я до этого момента тоже. Круто, чё — зайчатки биопанка.
>>1584333
Suka, lol но это получается использование настоящих и уже хорошо обученных нейронных сетей, которых дообучают на примитивные задания, что немного уводит от начальной темы вопроса
Аноним 28/01/20 Втр 17:11:10 1584907106
>>1584611
Можешь по подробнее объяснить? Что за зазубренное переобучение? Я думал, что это делается для оценки в процессе обучения и настройки гиперпараметров (типа валидационную выборку нам дал заказчик, а тестовую заказчик держит у себя и нам не даёт, только потом будет проверять на ней качество всей системы).
Аноним 28/01/20 Втр 17:34:15 1584926107
1UCd6KrmBxpzUpW[...].png (141Кб, 1200x492)
1200x492
225c44513c21431[...].png (1016Кб, 1600x903)
1600x903
Аноним 28/01/20 Втр 17:36:44 1584928108
>>1584488
показываем голубю мотоцикл(дымовую трубу,мост) даем семучку, показываем карточку без этого - бьем осуждаю насилие над животными, поэтому пугаем звуком кошки. Показываем капчу если прошел - даем кушоть. Кайф. Продаем обход капчи за деньги.

Объясните инициализируя
skr=sklearn.linear_model.LinearRegression()
и обучая ее skr.fit(X,y)
если я еще рад fit позову на другом датасете она будет дообучаться?
Аноним 28/01/20 Втр 18:32:19 1584985109
image.png (34Кб, 628x412)
628x412
Антоны, как это можно ускорить? Нет возможности поднять батчи, ибо сетка уже на батч сайзе 16 умудряется выжирать всю память.
Learning rate 0.004.
Можно ли что-то подправить, чтобы не ждать еще неделю?
Аноним 28/01/20 Втр 18:46:07 1584992110
>>1584928
Не должна, потому что там вызывается scipy'шный lstsq, а в нем аналитически считается решение (все заново будет считаться). Для дообучения бери SGDRegressor и его fit/partial_fit.

>>1584985
Поменяй архитектуру сетки, оптимизатор, добавь CLR, аугментаций.
Кстати, что за лосс у тебя?
Аноним 28/01/20 Втр 18:49:37 1584995111
image.png (6Кб, 250x132)
250x132
Я мимовебмакен, которому нужно распознать, является ли изображение флагом, на изображение ничего кроме него нет типа пика. У вас есть какая-нибудь либа, которая сама все за меня сделает? Думаю, что эту задачу уже кто-то давно сделал.
Аноним 28/01/20 Втр 18:55:01 1585001112
>>1584928
>Продаем обход капчи за деньги.
Индусы(или кто там нынче) дешевле.
>если я еще рад fit позову на другом датасете она будет дообучаться?
Гугол/доки. Это ж примитивный вопрос.
Аноним 28/01/20 Втр 19:13:30 1585013113
>>1584992
Ну нет, оптимизатор я уже не могу сменить, а вот попробовать найти learning rate с помощью CLR или LRF хорошая идея.
Аноним 29/01/20 Срд 00:22:17 1585186114
Задача - предиктить координаты вершин треугольника. Треугольник - чб изображение 500*500. Использую обычный линейный слой + mse loss, на выходе 6 чисел. Но что-бы я не делал, на валидационной выборке предиктится примерно одинаковых 6 чисел, а на обучающей можно добиться идеальных координат, если оверфитнуть. Изменение регуляризации ничего не даёт (только хуже результаты на train выборке), тут именно проблема с обобщающей способностью модели. Может знает кто, куда копать?
Аноним 29/01/20 Срд 00:47:57 1585199115
>>1585186
OpenCV findContours, перебираешь получившиеся точки, смотришь вокруг каждой окно 20х20, предиктишь тремя свертками угол ли это или нет.

Твоя модель максимум запомнит все треугольники через их уникальные точки.
Аноним 29/01/20 Срд 01:24:25 1585224116
>>1584607
>А зачем выборку часто делят на три части: тест, трейн и валидацию где последнее это что-то вроде второго теста. Зачем нужен ещё один тест?
Ты косвенно используешь валидационный датасет в обучение, когда подбираешь гиперпараметры на его основе. Поэтому нужен третий - тестовый датасет. На тренировочном тренируешь, на валидационном подбираешь гиперпараметры, а тестовый используешь один раз в самом конце, перед выкатом системы в продакшн.
Аноним 29/01/20 Срд 01:30:20 1585233117
Аноним 29/01/20 Срд 01:47:30 1585255118
>>1578978 (OP)
Как там ваш ИИ, роботы уже в диалоги могут или пока только котиков раскрашивают?
Аноним 29/01/20 Срд 01:53:38 1585260119
>>1585224
>перед выкатом системы в продакшн
Поэтому все ваши нейронки такое говно? Может еще 4 проход нужен?
Аноним 29/01/20 Срд 02:46:06 1585276120
>>1584985
Через день у тебя застрянет на 140, меняй архитектуру
Аноним 29/01/20 Срд 02:54:43 1585280121
>>1585186
>тут именно проблема с обобщающей способностью модели
Нарисуй треугольник ABC, проведи у него высоту BH. Получишь два треугольника, ABH и CBH.
Покажи первый треугольник своей модели, получишь
[шесть чисел] = модель(ABH)
Покажи второй треугольник своей модели, получишь
[шесть других чисел] = модель(CBH)

Далее, из линейности модели иследует, что
[шесть чисел]+[шесть других чисел]=модель(ABC)

Что, конечно же, неправда. Поэтому линейная модель в твоем случае работать не может.

>>1585199
>OpenCV findContours, перебираешь получившиеся точки, смотришь вокруг каждой окно 20х20, предиктишь тремя свертками угол ли это или нет.
Во ты наркоман
Аноним 29/01/20 Срд 04:38:02 1585291122
>>1585276
Я попробую еще применить One-Cycle Policy, архитектуру бросать особо не хочется, как по мне, она оптимальна.
Аноним 29/01/20 Срд 06:35:40 1585303123
Доброго времени суток, ньюфаг в треде.
Выбираю тему для диплома, пока что вертится в голове нейронка для поиска фото конкретного человека в базе фотографий. Только вот по мере погружения в тему понимаю, что за год самообучения и неспешной разработки в одно лицо такое не потянуть. Или потянуть?
Навык программирования на уровне базового синтаксиса нескольких ООП языков, вышмат не самая сильная сторона - лень было учить в рамках универа, но понимание есть, подтянуть смогу.

Если затея совсем гиблая, может, подскажете тему для диплома, которую будет не стыдно показать комиссии на защите, на собесе интервьюеру и матери дома?
Аноним 29/01/20 Срд 10:30:00 1585352124
shamo-poroda-ku[...].jpg (70Кб, 600x440)
600x440
>>1585303
>тему для диплома
Натренеруй петухана на распознование геометреических фигур
Аноним 29/01/20 Срд 14:06:20 1585451125
>>1585291
Антоны, я правильно понимаю, что learning rate range test - это когда мы берем очень маленький learning rate и с каждым шагом понемногу увеличиваем его, пока loss не начнет расти?
Аноним 29/01/20 Срд 15:12:04 1585482126
>>1578978 (OP)
>Я ничего не понимаю, что делать? Либо в тупую import slesarplow as sp по туториалам
Чё это не гуглится.
Аноним 29/01/20 Срд 15:26:49 1585501127
image.png (24Кб, 429x610)
429x610
image.png (27Кб, 569x422)
569x422
>>1585451
Я попробовал запустить этот тест, в итоге получилось это.
Я же правильно понимаю, что мне нужно взять значение с того момента, как оно стало уменьшаться? На графике примерно 43 шаг.
learning rate на этом моменте 0.043.
В оригинальной работе learning rate был выставлен на 0.004 вообще.
Аноним 29/01/20 Срд 16:10:37 1585546128
>>1585291
Эти шаманства позволяют ускорить обучение, но не обучить необучаемое
Аноним 29/01/20 Срд 16:11:20 1585547129
>>1585546
Она обучаемая, я уже обучал на другом датасете и оно показывало хорошие результаты.
Аноним 29/01/20 Срд 16:11:47 1585548130
>>1585547
Единственный, кто тут необучаемый - это я.
Аноним 29/01/20 Срд 17:04:56 1585596131
image.png (27Кб, 335x561)
335x561
image.png (11Кб, 335x289)
335x289
>>1585547
Ну вроде даже получилось, обучение идет таки быстрее.
По крайней мере я выучил, что такое CLR и One-cycle policy.
Только вот насчет степсайза я не понял, у меня датасет на 52132, 14 батчей, я выставил stepsize в 7к, но так и не понимаю, правильно ли это.
Аноним 29/01/20 Срд 18:10:58 1585637132
>>1585596
>я выучил, что такое CLR и One-cycle policy
Теперь начинай потихоньку разрабатывать свой анус
Аноним 29/01/20 Срд 19:57:47 1585745133
>>1585637
Зачем?
На самом деле, походу я прогадал с этим step size.
Обучение дошло до лосса в 166, но дальше идет медленно, не так медленно, как до этого, но прогресс замедляется.
Попробую выставить stepsize в 20к
Аноним 29/01/20 Срд 20:13:18 1585755134
>>1585745
>Зачем?
Ты же хочешь вкатится в МЛ, а там без этого никак
Аноним 29/01/20 Срд 21:23:04 1585784135
>>1585755
> Ты же хочешь вкатится в МЛ, а там без этого никак
Для меня это просто хобби, куча магических математических функций с тонной параметром, которые умеют делать крутые вещи.
Может когда-нибудь я тоже что-то эпичное смогу написать.
Аноним 29/01/20 Срд 22:00:35 1585806136
>>1585784
Единственное ограничение пока для меня - это требовательность к ресурсам, требуется мощное железо, требуется собирать огромные датасеты.
Аноним 29/01/20 Срд 22:11:18 1585812137
15754444707410.gif (69Кб, 284x264)
284x264
>>1585784
> Может когда-нибудь я тоже что-то эпичное смогу написать.
Ты ж зумер, что ты там сможешь написать? Домашку разве что.
Аноним 29/01/20 Срд 22:13:13 1585816138
>>1585812
Не, я не зумер. Откуда агрессия, Анон?
Аноним 29/01/20 Срд 22:59:59 1585858139
>>1585816
>Откуда агрессия, Анон?
Это местный опущ-маняматик.
Аноним 30/01/20 Чтв 00:18:11 1585884140
Screenshot02.jpg (104Кб, 2000x1150)
2000x1150
Аноним 30/01/20 Чтв 01:04:57 1585901141
Аноним 30/01/20 Чтв 14:02:12 1586114142
Привет
Может кто-нибудь видел какие-то статьи или что-то такое на тему внедрения дообучения ML модели юзером(разметкой чего-либо), и её автоматического внедрения?
Аноним 30/01/20 Чтв 14:34:51 1586134143
>>1586114
Если ты нашел ресурсов на разметку несколько тысяч картинок, то и датасаентиста найдешь.
Аноним 30/01/20 Чтв 15:08:57 1586152144
>>1586134
дело не в картинках, а в автоматизации
чтобы не приходилось сидеть разработчику все там выделять-дообучать и обновлять модель, а чтобы это юзер сделал сам
Аноним 31/01/20 Птн 13:17:28 1586861145
Антоны, где почитать про ансамблевые сети?
Я бы хотел увеличить силу своей CNN части нейроночки.
Я читал, что ансамбль из 4-х Inceptionv3 смог достичь top 3.58% на Imagenet, в то время как одна смогла достичь всего 4.2%
Аноним 31/01/20 Птн 13:21:33 1586864146
>>1586861
Хотя, может быть мне присмотреться к другим CNN для своей OCR.
Прошу наставить на путь истинный! Аноним 31/01/20 Птн 18:28:50 1587206147
Bbei1F4.jpg (32Кб, 700x800)
700x800
Прошу наставить на путь истинный!
Пытаюсь вкатиться в дип лёрнинг.
Бэкграунд следующий:
32+ (через пару месяцев 33+)
Быдлокодить начал в 2000-ом. До 2012 использовал всякий треш (Basic, Pascal, ActionScript 3.0, PHP). С 2012 пользуюсь JavaScript. Имеется курс линейной алгебры из универа (довольно поверхностный). Оттуда же интегралы с производными. В декабре прошлого года попробовал слепить (из обрывков имеющихся знаний) многослойный персептрон. В начале января поигрался со свертками. (И персептрон и свертки делал на JavaSctipt). Начал читать книгу Яна Гудфэллоу, сейчас на 130-й страничке. Параллельно недели три с ютуба не вылажу - смотрю рандомные лекции по CNN и GAN (чтобы Гудфэллоу был менее абстрактным). Кроме всего прочего, прочитана (в 2012-ом или около того) книга Тоби Сегарана "Программируем коллективный разум" (книга по машинному обучению).

Дальше смотри, какая ерунда получается. С JavaSctipt мне слазить ну очень не хочется (за 8 лет к нему прикипел). Но, все, что я на ютубе вижу или в рандомных статьях читаю - все делают на Python через PyTorch, Keras или TensorFlow. В Python я немношк заглянул - выглядит он для меня как пикрелейтед.

Короч, есть три стула:
1. После Яна Гудфэллоу читать Саймона Хайкина (лет 5 назад пробовал, но не пошло), чтобы больше всех понимать в теории и не уметь нихуя сделать на практике.
2. После Яна Гудфэллоу читать Николенко ("Глубокое обучение. Погружение в мир нейронных сетей"). Там я полистал - все на TensorFlow делают. IRL нагуглил такую няшку, как "TensorFlow.js" - можно весь TensorFlow делать в JavaSctipt (доступ к GPU через WebGL).
3. Вот прям сейчас забросить Гудфэллоуа и пойти читать Марка Лутца (Изучаем Python. Четвертое издание). Потом год решать рандомные задачки, чтобы научиться повыше ногу закидывать и получше приседать. После чего начать дрочить один из фреймворков.

Ну и собсно вопросы:
1. Кто из них пижже: PyTorch, Keras или TensorFlow?
2. Можно ли обойтись без Python и ебошить TensorFlow в JavaSctipt (есть ли у кого подобный опыт)?
3. Нужен ли мне Хайкин или хватить одного Гудфэллоуа? Про машины Больцмана и у одного и у второго написано. Если я правильно понял, Гудфэллоу прост Хайкина пересказывает более простым языком.
4. Вы (Пайтоновцы) все вот так ходите?
Аноним 31/01/20 Птн 18:34:08 1587209148
>>1587206
Хайкин тебе не нужон, инфа 146%. Из всяких слесарьпловов лучше то, что ты знаешь лучше.
Аноним 31/01/20 Птн 19:37:33 1587284149
>>1587206
>С JavaSctipt мне слазить ну очень не хочется
Перехочется. За пару месяцев привыкнешь.
>1. Кто из них пижже: PyTorch, Keras или TensorFlow?
Для начинающего лучше pytorch, у tf пиздец с API, и он только нарастает. Keras же по сути стал подмодулем tf
>2. Можно ли обойтись без Python и ебошить TensorFlow в JavaSctipt (есть ли у кого подобный опыт)?
Нет
>3. Нужен ли мне Хайкин или хватить одного Гудфэллоуа?
Не нужен
>4. Вы (Пайтоновцы) все вот так ходите?
Если ты в 33 года до сих пор не умеешь переключаться между основными мейнстримными языками, то с тобой что-то не так. Ты уже деградировал до уровня макаки. Как ты будешь заниматься нейронками при этом - не понятно
Аноним 31/01/20 Птн 19:46:10 1587289150
>>1587206
питон легко срастается с крестами, которые все и считают
Аноним 31/01/20 Птн 22:00:50 1587387151
>>1587206
Дед, какие сети, тебе на кладбище уже пора.
Аноним 01/02/20 Суб 01:31:51 1587583152
Антоны с опытом, такой вопрос. Если я студент и теорвер с матстатом будет скорее всего на 3 курсе, то со вкатыванием в стажировки можно не спешить? какие смежные темы можно изучать, чтобы потом перекатиться. Не хотелось бы летом остаться без дела
Аноним 01/02/20 Суб 12:44:11 1587881153
rz3o1yibnc511.png (211Кб, 639x724)
639x724
>>1587206
> 1. Кто из них пижже: PyTorch, Keras или TensorFlow?
JAX. А если без шуток, то бери TF 2.0 и не прогадаешь.
> 2. Можно ли обойтись без Python и ебошить TensorFlow в JavaSctipt (есть ли у кого подобный опыт)?
Есть tf.js
> 3. Нужен ли мне Хайкин или хватить одного Гудфэллоуа? Про машины Больцмана и у одного и у второго написано. Если я правильно понял, Гудфэллоу прост Хайкина пересказывает более простым языком.
Если можешь, то советую поступить в ШАД. Иначе дрочить туториалы, потом kaggle. Будешь что-то не понимать — смотри в статьях. Будешь не понимать в статьях — смотри Хайкина.
> 4. Вы (Пайтоновцы) все вот так ходите?
Кто бы говорил, блядь. Пикрелейтед (хотя пара пуктов довольно надуманные).
Аноним 01/02/20 Суб 15:23:56 1588111154
>>1587881
>Пикрелейтед
JS - язык с динамической типизацией. Большинство примеров связаны с этим, плюс несколько примеров связанных с ошибкой округления. Python тебе тоже 0.2+0.1 правильно не сделает.
Аноним 01/02/20 Суб 15:52:20 1588125155
>>1587881
>rz3o1yibnc511.png
Мое любимое [5,10,1].sort()
Аноним 01/02/20 Суб 16:10:26 1588145156
>>1588111
>JS - язык с динамической типизацией. Большинство примеров связаны с этим
да, а именно с тем, как всрато типы преобразуются друг в друга
Аноним 01/02/20 Суб 16:27:20 1588164157
>>1588145
И это совершенно никак не связано с динамической типизацией.
Мимо
Аноним 01/02/20 Суб 16:49:32 1588178158
Стоит ли рвать жопу чтоб поступить в ШАД или есть более рациональный путь в дотасаенс?
Аноним 01/02/20 Суб 18:45:47 1588369159
>>1588178
У мыла еще есть своя шада.
Аноним 01/02/20 Суб 21:06:35 1588511160
>>1588145
>>1588164
Го не будем пердеть в сторону JS в Python-треде.
Единственное, что в JS может смутить новичков - то, что оператор сложения определен как оператор конкатенации для строк. Все остальные приведения типов вполне интуитивны.
Аноним 01/02/20 Суб 23:44:04 1588743161
>>1588178
>>1588369
А удалённо можно учиться?
мимо не дс-кун
Аноним 02/02/20 Вск 00:17:04 1588813162
Есть готовые кейсы или статьи по применению ml и нейронок к прогнозированию складских запасов?
Аноним 02/02/20 Вск 03:24:33 1589015163
>>1588813
>кейсы
При чем здесь чемоданы?
Аноним 02/02/20 Вск 16:43:46 1589333164
>>1578978 (OP)
Привет, петухи. Я байтоеб с большим опытом, учился на фундаментальной математике, прошел курс по нейронным сетям и вот что я понял:

- Глубокого ИИ нет и не будет
- Математика в продакшене не нужна
- Нейронки это прежде всего лютый говнокод на питоне от людей, которые не умеют программировать
- Задачи в ИИ это говно уровня "у нас тут нейронка на тестовых данных выдает 99%, а в продакшене только 30%, помеси говно и разберись, в чем дело"

В чем ваша элитарность, говноеды? Ведь вы и не математики и не программисты, а ваша работа скучна до невозможного.
Аноним 02/02/20 Вск 17:01:23 1589362165
>>1589333
>прошел курс
А без курсов ты этого не понял? Воистину, маняматик это диагноз.
Аноним 02/02/20 Вск 17:31:02 1589405166
Аноним 02/02/20 Вск 17:32:43 1589406167
>>1589333
>не умеют программировать
> учился на фундаментальной математике
Для тебя уметь программировать это смешивать различные действия в одной функции?
Аноним 02/02/20 Вск 18:26:33 1589494168
15744438343430.gif (170Кб, 326x281)
326x281
>>1589333
Куда ты лезешь-то, хоспаде... Курс он какой-то прошел, где-то там на кого-то "выучился" методом залипания в тилибон на парах, что-то там якобы "понял". Ты конечно можешь пиздеть Иисусу, Гитлеру, мне, но себя ты не наебешь, ты тайдмен простой, который даже не понял, зачем вообще машоб. Для тебя это просто какие-то отрывочные разрозненные пародии на знание, никак между собой не связанные.
Аноним 02/02/20 Вск 19:56:05 1589539169
Аноним 02/02/20 Вск 21:06:40 1589606170
869.png (4Кб, 311x95)
311x95
Такое вообще бывает?
Аноним 02/02/20 Вск 21:11:47 1589608171
>>1589494
>пук без описания своих рабочих задач
Баттхертом слесаря-машобучателя удовлетворен.
Аноним 02/02/20 Вск 21:14:55 1589610172
Аноним 02/02/20 Вск 21:16:17 1589614173
>>1589333
Мы получаем втрое больше вебохолопов.
Аноним 02/02/20 Вск 21:56:46 1589655174
>>1589606
уменьшается значит норм
Аноним 02/02/20 Вск 22:35:21 1589702175
Антоны, у меня файл tfrecord получается больше, чем оригинальный датасет в виде файл.jpg файл.txt
Причем сама папка с картинками и текстом весит 836 мегабайт, а tfrecord файл получается в 11 гб
Аноним 02/02/20 Вск 23:33:01 1589838176
image.png (12Кб, 581x139)
581x139
>>1589702
А, я понял, у меня в коде преобразование не так происходило.
Переписал, теперь файл весит 403 мегабайта
Аноним 03/02/20 Пнд 00:46:48 1589936177
Сап, господа, такой вопрос: скоро с шараги выпускаться, нажо диплом запилить, а я с год назад начал в дс вкатываться. Думал захерачить что-то вроде копии FaceID на андроид, но слишком много ебли с оптимизацией и самой джавой, есть интересные идеи для диплома на компьютерное зрение, чтобы не ебатня в неизвестном дерьме и не на датасете с порнхаба? Заранее спасибо
Аноним 03/02/20 Пнд 00:52:31 1589941178
>>1588178
Можно без шада. Даже лучше. Пока ботаны дрочат матешу, люди набирают опыт работы на стажировках. К тому времени, как ботан закончит шад, ты будешь уже мидлом. А после шада только стажировка все равно.
Аноним 03/02/20 Пнд 01:21:56 1589957179
Аноним 03/02/20 Пнд 10:58:16 1590082180
>>1589333
>Глубокого ИИ нет и не будет
Неочевидно.
>Математика в продакшене не нужна
Смотря где. Статистику ты математикой не считаешь?
>Нейронки это прежде всего лютый говнокод на питоне от людей, которые не умеют программировать
+- да. А ещё уёбищная документация.
>Задачи в ИИ это говно уровня "у нас тут нейронка на тестовых данных выдает 99%, а в продакшене только 30%, помеси говно и разберись, в чем дело"
+- да.
>В чем ваша элитарность, говноеды?
Элитарность такая же, как в любом айти. Никакой Ты себя что ли элитарием считаешь?
>ваша работа скучна до невозможного
Кому-то и программировать скучно.
Покормил
Аноним 03/02/20 Пнд 11:27:24 1590110181
>>1587206
>1. Кто из них пижже: PyTorch, Keras или TensorFlow?
tf 2.0 легко совмещается с Keras, в PyTorch лучше реализован динамический граф.
>2. Можно ли обойтись без Python и ебошить TensorFlow в JavaSctipt (есть ли у кого подобный опыт)?
Может быть можно, но python/R/Matlab это индустриальный стандартъ.
>3. Нужен ли мне Хайкин или хватить одного Гудфэллоуа? Про машины Больцмана и у одного и у второго написано. Если я правильно понял, Гудфэллоу прост Хайкина пересказывает более простым языком.
Хайкина лучше не читай, книга устаревшая, но вроде там нормальный перевод на русский язык. Нормальные книги - это Бишоп, ESL, ну и еще парочка более ориентированных на теорию.
>4. Вы (Пайтоновцы) все вот так ходите?
Ты посмотри что такое R и тогда поймешь, что Python это мана небесная.
Аноним 03/02/20 Пнд 11:32:55 1590114182
Как вкатиться в DATA SCIENCE с нуля? У меня диплом психолога.
Аноним 03/02/20 Пнд 11:39:49 1590120183
>>1590110
> Ты посмотри что такое R
Единственный вменяемый язык обработки данных, который просто поставил в два клика и просто пользуешься без всякого пердолинга и дрочьбы из-под колена? Надо 10 разных версий - просто ставишь 10, и для каждой любой набор либ, которые можно просто вручную скачать и распаковать. И все это будет просто работать!
Аноним 03/02/20 Пнд 11:49:32 1590130184
>>1590114
Достаточно знания питона и умения программировать хотя бы в матлабе или маппле.
Аноним 03/02/20 Пнд 23:32:40 1591058185
Аноним 04/02/20 Втр 05:48:53 1591207186
>>1589333
>Я байтоеб с большим опытом, учился на фундаментальной математике
То есть даже по специальности не устроился.
>Глубокого ИИ нет и не будет
Общего в смысле? Будет. Просто не на GEMM-подобных вычислениях
>Математика в продакшене не нужна
В продакшене и мы не нужны, дал модель и код который эту модель вызывает, программист разберется
Исключение, если тебе приходится делать собственный инференс с ad-hoc оптимизациями. Я таким занимаюсь как раз, но больше как хобби.
>Нейронки это прежде всего лютый говнокод на питоне от людей, которые не умеют программировать
А программисты это прежде всего тыкальщики кнопок на клавиатуре. У нейронок есть тиры, типа
1. Обучил на тестовом датасете по туториалу
2. Обучил своем датасете
3. Модифицировал архитектуру под датасет
4. Разработал новый слой под задачу
Ну и так далее. Ты аж на уровне 1, как и то быдло, которое судит о программировании, глядя на него со стороны. Нормальная движуха начинается с уровня три, когда ты, к примеру, можешь взять и применить подходы, описанные в пейпере efficientnet, для своего time series предсказателя. Для бабок со стороны это выглядит как "дыыыы, они случайно гиперпараметры крутят".
>Задачи в ИИ это говно уровня "у нас тут нейронка на тестовых данных выдает 99%, а в продакшене только 30%, помеси говно и разберись, в чем дело"
Кнопки. Тыкают.
>В чем ваша элитарность, говноеды?
В наличии в голове целой суммы знаний, которой у других специалистов нет. Про байтоебов даже вспоминать смешно, байтоебов разве что ПТУ не готовят.
>Ведь вы и не математики и не программисты, а ваша работа скучна до невозможного.
Работа исследователя в коммерческой фирме точно не скучна, ведь если нейронка работает плохо, твой проект (в лучшем случае, а то и тебя) выкинут на мороз, а если она работает хорошо, ты уже не нужен и впереди новый проект. Тяжелая работа, но зато без рутины, как в случае с программированием, когда ты знаешь, что если задача не будет решена за день, то за неделю точно будет решена.
Аноним 04/02/20 Втр 06:14:02 1591213187
0qJTo3nfbyhJOMUj.png (39Кб, 624x436)
624x436
В нейронках полный ноль. Но интересует тема rules extraction. Есть что нибудь наглядное по теме, что можно пощупать и посмотреть? А тт одни пейперы кругом. Ну к примеру: обучаем нейроночкк обыгрывать в крестикинолики/шахматы/го, выделяем из нее правила в виде скажем конечного автомата, который буквально говорит - в такой ситуации ходи конем.
Аноним 04/02/20 Втр 06:37:22 1591220188
>>1591213
>выделяем из нее правила в виде скажем конечного автомата
Ну будет у тебя правило "умножим матрицу A на матрицу Б, и если результат меньше 0.12345, делай то-то". Легче станет?
Аноним 04/02/20 Втр 06:40:29 1591221189
>>1591220
Ну это какой то наивный подход. Хотелось бы услышать что то посерьезнее.
Аноним 04/02/20 Втр 07:13:30 1591226190
>>1591213
Нейрон очки не причем, тебе нужно rule mining. Алгоритмов полно на самом деле, всякие apriori итд. Обычно к ним есть и визуализация полученных правил в виде графов, таблиц, чего угодно. Конкретный пример - в R это либы arules, arulesViz.
Аноним 04/02/20 Втр 07:19:04 1591227191
>>1591226
Прикольно. А почему нейроночки не причем? Речь как раз о том, чтобы она обучилась что то делать, а потом это выразить простыми инструкциями.
Аноним 04/02/20 Втр 07:56:47 1591231192
Хей, че скажите по поводу Computer Vision ?
Аноним 04/02/20 Втр 08:18:47 1591236193
>>1591227
> А почему нейроночки не причем?
Потому что они для этого не нужны. Почитай про вышеупомянутые алгоритмы, как считаются support, confidence, lift итп коэффициенты релевантности правил, там очень простые формулы и все работает без всяких нейроночек.
Аноним 04/02/20 Втр 08:49:46 1591247194
>>1591231
ну заебись Computer Vision, пиздатый Computer Vision. Что про него ещё сказать?
Аноним 04/02/20 Втр 08:51:54 1591248195
>>1591247
Пытаюсь в него вкатиться, вот думаю насколько ахуенная тема, ибо чет всякие пиздапсевдоинтеллектаулки туда вкатываются и мне страшно стало, что это очередная зумерская хуйня.
Аноним 04/02/20 Втр 09:43:32 1591263196
>>1591248
Нет более зумерской хуйни, чем боязнь зумерской хуйни. При бумерах такого не было
мимо гомосексуал-миллениал
Аноним 04/02/20 Втр 15:20:47 1591525197
>>1591263
>гомосексуал-миллениал
Мог бы просто написать - математик
Аноним 04/02/20 Втр 16:40:20 1591667198
nZFN5DMP5Q.jpg (236Кб, 700x653)
700x653
>>1591525
Пидораха, ненавидящая науку, но лезущая ради денег, ты?
Аноним 04/02/20 Втр 16:41:41 1591668199
>>1591667
>ненавидящая науку, но лезущая ради денег, ты
Нетъ
Аноним 04/02/20 Втр 16:42:22 1591670200
>>1591667
>науку
Да, кстати, математика не наука.
Аноним 04/02/20 Втр 16:56:17 1591681201
>>1591670
зависит от определения
Аноним 04/02/20 Втр 18:34:40 1591750202
15803123597130.jpg (45Кб, 1280x720)
1280x720
>>1591670
Вот бы сейчас слушать что наука а что нет, от малолетнего дегенерата, верующего в плоскую землю, эфир, вред прививок и дальше по списку скреп типичной колхозной пидарашки.
Аноним 04/02/20 Втр 18:39:11 1591753203
>>1591750
Вопрос об основаниях математики и о том, что представляет собой в конечном счёте математика, остаётся открытым. Мы не знаем какого-то направления, которое позволит, в конце концов, найти окончательный ответ на этот вопрос, и можно ли вообще ожидать, что подобный «окончательный» ответ будет когда-нибудь получен и признан всеми математиками.

«Математизирование» может остаться одним из проявлений творческой деятельности человека, подобно музицированию или литературному творчеству, ярким и самобытным, но прогнозирование его исторических судеб не поддаётся рационализации и не может быть объективным

Герман Вейль
Аноним 04/02/20 Втр 19:51:58 1591827204
Можно на kaggle как-то посмотреть код чуваков из топа по какому-то заданию?
Аноним 05/02/20 Срд 05:15:37 1592054205
Brouwer.jpg (462Кб, 752x1083)
752x1083
>>1591753
> Вопрос об основаниях математики и о том, что представляет собой в конечном счёте математика, остаётся открытым.
Оставался до 1907 года.
Аноним 05/02/20 Срд 05:51:12 1592057206
>>1591753
Тебя мало в /math/ обоссали? Начаальниик, этот пидорас обосрался
Аноним 05/02/20 Срд 06:26:47 1592062207
>>1591753
Алсо, ты случайно не тот дегенерат, который заявлял, что числа не имеют никакого отношения к математике?
Аноним 05/02/20 Срд 06:58:32 1592067208
>>1592054
>до 1907 года
Какой положняк на 2020?
Аноним 05/02/20 Срд 07:07:01 1592070209
15069300382016-[...].jpg (37Кб, 782x390)
782x390
>>1592067
Вся математика конструктивна и представима в унивалентных основаниях.
Аноним 05/02/20 Срд 07:12:35 1592071210
>>1592070>>1592067
Шизики, съебите в /math/ в основания-тред и сосите там друг у друга
Аноним 05/02/20 Срд 07:19:07 1592072211
157855792912668[...].jpg (178Кб, 800x1066)
800x1066
Аноним 05/02/20 Срд 07:42:23 1592075212
>>1592071
Тред оснований проебали. Я пару раз перекатывал, но смысла нет, там полтора дегенерата сидят, если не один пучкист.
Аноним 05/02/20 Срд 11:22:43 1592115213
>>1591827
Они часто выкатывают свои решения после окончания соревнований. Ищи в discussion и notebooks
Аноним 05/02/20 Срд 13:38:24 1592194214
Суп двоч, делаю себе подобие сервера с видеокартой, чтобы считать всё на удаленной машине. Есть какие-нибудь готовые подобия вебморд на неё, чтобы там выводить прогресс, температуру видеокарты, оставшееся время итд. Я так понимаю tensorboard примерно то, что я ищу. Ещё хотелось бы, чтобы была очередь задач. Если например разные архитектуры на одном и том же датасете тренировать и кидать их в очередь, чтобы сервак не простаивал.
Аноним 05/02/20 Срд 18:30:47 1592461215
Аноним 05/02/20 Срд 20:35:40 1592559216
зумер-вкатывальщик итт. Надеюсь, кто-нибудь разбирался с Hindsight Experience Replay. Как эту штуку адаптировать под какой-нибудь mountaincar или шахматы, где мы не знаем состояние-цель?
И как потом обученную модель запускать? в неё тоже цель передавать?
Аноним 05/02/20 Срд 22:43:08 1592722217
Спецы, поясните, так с адверсариал атаками можно потенциально сделать ультранеразгадываемую капчу?
Аноним 05/02/20 Срд 23:55:46 1592774218
>>1592722
Капчи с распознаванием текста - нет. Их и так уже сетки намного лучше людей угадывают.
Аноним 06/02/20 Чтв 02:50:39 1592869219
>>1592774
> намного лучше людей угадывают.
Зачем ты врешь?
Аноним 06/02/20 Чтв 12:18:57 1593056220
Scikit-learn нужен?
Аноним 06/02/20 Чтв 15:44:04 1593373221
>>1593056
да, чтобы датасет разделять и рок аук считать
Аноним 06/02/20 Чтв 18:27:43 1593556222
>>1578978 (OP)
Аноны, посоветуйте плиз. Начал изучать машинное обучение месяц назад. Хочу сделать свой реальный проект (посколько мне всегда было проще учиться разбирая что-то сложное, либо решая какую-то настоящую задачу). Возникла идея написать приложение по распознаванию лиц. Напишу подробней, у меня на кафедре установлены IP камеры. Одна из них смотрит на входную дверь кафедры. Идея приложения в следующем. Есть БД с фотографиями студентов кафедры. Есть нейронка, которая обучена распознавать лица. Хотелось бы сделать следующее: когда приложение запущенно, оно считывает изображение с камеры, распознаёт лица и сравнивает с теми, что хранятся в БД. И делает это непрерывно. В тот момент когда появляется человек, лицо которого не занесено в БД(потенциальный нарушитель), приложение выдаёт отчёт о том, что проник кто-то посторонний. Вот в целом такая штука. Я поверхностно рпошёлся по OpenCV, но было бы лучше если бы я сам обучил нейронку (для получения практического опыта). Хочу спросить у знающих анонов, как бы вы спроектировали такое приложение? Может быть подскажите библиотеки, возможный план разработки, и вообще что-то важное по этой теме. Буду очень благодарен!
Аноним 06/02/20 Чтв 19:02:59 1593586223
>>1593556
Проект говно, а ты лось, которого надо посадить.
Аноним 06/02/20 Чтв 19:13:47 1593599224
>>1593556
>Есть БД с фотографиями студентов кафедры. Есть нейронка, которая обучена распознавать лица.
Распознать лицо вообще и распознать лицо Сидорова - это совсем разные вещи. Тебе придётся обучить нейронку распознавать именно Сидорова.
Аноним 06/02/20 Чтв 19:15:01 1593600225
Решил вкатиться чтобы сделать свое тамагочи, жидко пернув обосрался увидев английский язык.
Аноним 06/02/20 Чтв 19:59:41 1593617226
>>1593599
А как ты думаешь, вариант ли использовать 2 нейронки? Т.е одна отвечает за то чтобы вообще на изображении найти лица, а вторая сравнивает с теми лицами, которые есть в БД? Или для этих вычислений потребуются слишком большие ресурсы?
Аноним 06/02/20 Чтв 20:00:08 1593618227
>>1593586
Почему говно? Объяснить нормально можешь?
Аноним 06/02/20 Чтв 21:03:35 1593683228
>>1593556
К машинному обучению этот проект отношения не имеет. Нужно написать фронтэнд к библиотеке dlib и взять где-то библиотеку для knn.
Аноним 06/02/20 Чтв 21:20:21 1593704229
>>1593683
Спасибо, посмотрю такой вариант
Аноним 06/02/20 Чтв 21:30:58 1593716230
Аноним 06/02/20 Чтв 21:37:27 1593724231
>>1593716
О, то что нужно, добра тебе анон.
Аноним 06/02/20 Чтв 21:52:02 1593742232
orwell-big-brot[...].jpg (130Кб, 960x540)
960x540
Распознавание лиц это 100% технология электронного ГУЛАГа, кроме скреп гостеррора - ограничения прав и свобод человека и нарушения конституции любой минимально цивилизованной страны, эта тема применений не имеет. С такими вопросами сразу проследуйте нахуй, пожалуйста.
Аноним 06/02/20 Чтв 21:58:11 1593752233
>>1593742
Лол, ты действительно веришь что рано или поздно такую систему не сделают? Когда будут внедрять что ты будешь делать? Отписываться в тредике?
Аноним 06/02/20 Чтв 22:08:01 1593777234
>>1593752
В китаях это давно уже работает. Вот только в тех же в китаях было показано, что заинтересованными лицами это элементарно обходится, а по факту эта технология нарушает право обычного человека на неприкосновенность частной жизни, собирая данные на всех для гебухи.
Аноним 06/02/20 Чтв 22:16:07 1593794235
>>1593777
Это всё понятно. Я же уточнил, я не планирую в системе при распознавании указывать данные человека. Есть только 2 параметра: есть ли он в БД или нет, т.е сотрудник/студент ли он, или какой-то левый чел. По факту данные обезличены в этом случае. А вообще, кто-то знает какие-либо правовые документы, регламентирующие использование системы распознавания лиц?
Аноним 06/02/20 Чтв 22:31:27 1593802236
>>1593777
> право обычного человека на неприкосновенность частной жизни
тебя дома в туалете снимают? вроде нет
Аноним 06/02/20 Чтв 23:07:43 1593842237
>>1593794
> А вообще, кто-то знает какие-либо правовые документы, регламентирующие использование системы распознавания лиц?
Это по-сути слежка, внешнее наблюдение. Законно только по решению суда. Но в Блинолопатии всем похуй, была новость, кто-то даже в суд подавал по поводу незаконности распознавания лиц в общественных местах и на мероприятиях типа митингов. Закончилось ничем.
>>1593802
> тебя дома в туалете снимают? вроде нет
Причем тут дома в туалете? Слежка в общественных местах на каком основании? Алсо, может быть и в туалете снимают, камеры на телефоне у меня не заклеены.
Аноним 07/02/20 Птн 04:21:38 1593944238
>>1593842
А либирах можно снимать, как они из корыта хрючево едят?
Аноним 07/02/20 Птн 04:29:57 1593948239
>>1593842
>Блинолопатии
Это где?
Аноним 07/02/20 Птн 07:43:43 1593996240
>>1593842
>Слежка в общественных местах на каком основании?
на том, что это общественные места
Аноним 07/02/20 Птн 08:06:56 1594000241
>>1593996
Никогда не понимал копротивляющихся против своих прав и свобод. Чем вам мозги моют, это же вообще противоречит истории всего живого. Даже безмозглая амёба никогда не будет что-то делать против себя, это абсурд. Как человек может топить против прав человека? Это бред полный.
Аноним 07/02/20 Птн 08:15:30 1594001242
>>1594000
>против прав человека
Либирашка, туда ли ты зашел, петушок?
Аноним 07/02/20 Птн 08:29:36 1594006243
>>1594001
Ты же тот самый петух, который что-то против математики квохчет, с тебя-то что взять. Мой предыдущий пост к тебе вообще не относится.
Аноним 07/02/20 Птн 08:33:32 1594008244
>>1594006
>против математики
Математики такие же педерасты как и либирашки, что тебе не нравится?
Аноним 07/02/20 Птн 11:34:20 1594103245
>>1594008
Еще и гомофоб. Фу таким быть
Аноним 07/02/20 Птн 17:30:21 1594352246
>>1578978 (OP)
Аноны, поясните, в чём отличие deep learning от machine learning? Насколько я понял, разница в решаемом круге задач? Может кто-то подробней объяснить?
Аноним 07/02/20 Птн 18:15:09 1594413247
>>1594352
deep learning - machine learning с кучей слоев
Аноним 07/02/20 Птн 18:15:49 1594415248
>>1594352
deep learning это подобласть machine learning, которая фокусируется на обучении многослойных (больше трех слоев) нейросетей. Сейчас термин сильно изжил себя, потому что любые нейросети сейчас это deep learning, за очень редким исключением, и в основном термин применяется для хайпа
Аноним 07/02/20 Птн 18:20:36 1594420249
машинное обучение бывает и без нейросетей
Аноним 07/02/20 Птн 18:23:13 1594424250
Аноним 07/02/20 Птн 18:52:36 1594459251
Аноним 07/02/20 Птн 18:58:08 1594470252
>>1594413
>>1594415
>>1594352
Я что-то не понял, с десяток лет назад Andrew Ng на своём курсе говорил что Deep Learning - это когда фичи извлекаются автоматически, а не задаются человеком заранее.
Что изменилось? Все поняли что этот подход не работает и пришлось переобуваться?
Аноним 07/02/20 Птн 19:43:35 1594548253
>>1594470
>Andrew Ng
Зачем ты всяких говноедов слушаешь?
Аноним 07/02/20 Птн 19:48:23 1594556254
>>1594470
>Все поняли что этот подход не работает и пришлось переобуваться?
Я почти начал тебе отвечать, но увидел эту нечеткошизу
Аноним 07/02/20 Птн 20:19:04 1594586255
>>1594470
>фичи извлекаются автоматически
гиперпараметры?
Аноним 07/02/20 Птн 20:23:14 1594591256
PyTorch или TensorFlow?
Аноним 07/02/20 Птн 20:26:20 1594596257
Аноним 07/02/20 Птн 20:40:52 1594610258
Аноним 07/02/20 Птн 20:41:08 1594611259
>>1594591
Учи торч, не повторяй моих ошибок
Аноним 07/02/20 Птн 20:44:23 1594616260
vpizdorch.png (45Кб, 668x871)
668x871
>>1594596
Ну блё, а если серьезно? Мне выше (>>1587284) насоветовали торча установить. Пытался вчера твой торч поставить, а он не ставится. Места ему не хватает. Три гига ему освободил - все равно не ставится. Тензор флов пока ставить не пробовал. Он тоже попросит всю порнуху с диска удалить?
Аноним 07/02/20 Птн 21:24:33 1594691261
>>1594616
Это я советовал. Че-то ты долго раскачивался.
Нужно двойное место, для установки и для временно скачанного пакета. Порнуху можешь на гугл драйв залить, установишь, удалишь whl файлы из кэша пипа и скачаешь назад.
В плане места они должны быть плюс-минус одинаковые.
Аноним 07/02/20 Птн 21:47:45 1594712262
>>1594691
Порнуха по всяким AppData\Roaming и AppData\Local раскидана. 7.45 гигов порнухи. Еще в папке Windows 22.3 гига порнухи.
Аноним 07/02/20 Птн 22:12:12 1594730263
>>1594712
симлинками перекинь на другой раздел
Аноним 08/02/20 Суб 01:31:39 1594932264
>>1594712
>Порнуха
Пиздец, выпелись
Аноним 08/02/20 Суб 02:40:46 1594967265
1018301839.jpg (36Кб, 650x470)
650x470
>>1594932
Ок, завтра выпилюсь. Апельсинку мне на могилку принесешь. Ну или эту, не апельиснку - на апельсинки у меня аллергия, притарабань короч конфет этих. "Батончики". Вкусные, бля пизда. Раньше такие были. Сча не найти. Ну ты найдешь, бля ты ж шаришь. Короч, штук 10 притарабань - чтобы заебись было.
Аноним 08/02/20 Суб 09:34:02 1595050266
>>1594967
СОЕВЫЕ баточники любишь? Кек
Аноним 08/02/20 Суб 10:16:13 1595067267
>>1594967
>Сча не найти
никуда они не делись
Аноним 08/02/20 Суб 11:12:37 1595089268
truetruetrue.png (97Кб, 1329x1045)
1329x1045
>>1587881
>Пикрелейтед
В твоем Python тоже такое есть.
Аноним 08/02/20 Суб 12:08:28 1595135269
>>1578978 (OP)
Решил вкатиться в маш-об и стать дата-сатанистом, что скажете про этот курс от Яндекса?
https://praktikum.yandex.ru/data-scientist/
Сам офисный планктон и не занимался программированием раньше, но узнал про маш-об и что там много платят и решил вкатиться. А в этом курсе обещают обучить новичка, да еще первые 20 часов бесплатно.
Аноним 08/02/20 Суб 18:18:54 1595591270
>>1595135
Курсы это наёбка на деньги. Ничего тебе не мешает найти бесплатные(или очень недорогие как на курсере) либо читать книги.
Аноним 08/02/20 Суб 18:46:44 1595624271
vHedWVd.jpg (57Кб, 500x500)
500x500
>>1595089
Ух как сложно-то, запомнить, что True - это 1, а False - это 0.
А мог бы что-нибудь типа None or [] и [] or None запостить, хотя и то и другое будет интерпретироваться как False в условиях
Аноним 08/02/20 Суб 19:40:52 1595679272
>>1595624
>аниме что-то перднуло
Аноним 08/02/20 Суб 19:58:06 1595706273
Антоны, я все думаю, как улучшить свою OCR.
Сейчас сама сеточка требует очень много памяти в силу разрешения картинок
Есть идея разделять текст на строки и обучать на одной строке, а после выдавать все на вход еще одной LSTM сети, которая имея весь контекст сможет поправить текст.
Либо нужно как-то изменять саму архитектуру сети, что мне немного лень делать.
Аноним 08/02/20 Суб 21:09:39 1595779274
>>1595706
>Сейчас сама сеточка требует очень много памяти в силу разрешения картинок
>Антоны, я все думаю, как улучшить свою OCR.
Очевидно, что докупить памяти.
Аноним 08/02/20 Суб 21:16:54 1595789275
>>1595779
Но проблема с размером все равно никуда не уйдет же, Анон.
Чем длиннее последовательности и больше разрешение картинок, тем больше памяти требуется.
Аноним 08/02/20 Суб 22:19:46 1595846276
>>1595706
>OCR
Нейроговно у тебя что то там распознает?
Аноним 09/02/20 Вск 00:23:53 1595943277
>>1595846
Да, причем лучше, чем я ожидал.
Аноним 09/02/20 Вск 10:04:52 1596081278
Аноны, поясните нормирование. Допустим, использовал самое простое для обучающей выборки x=(x-xср)/xмакс. Когда использую нейросеть для новых данных, мне их нормировать по старым значениям y=(y-xср)/xмакс или как?
Аноним 09/02/20 Вск 10:29:37 1596088279
>>1596081
>мне их нормировать по старым значениям?
да
Аноним 09/02/20 Вск 10:56:50 1596106280
>>1581158
> датасет на 1500 пикч
)
Аноним 09/02/20 Вск 12:21:58 1596139281
Меня волнует один оче важный вопрос. У меня есть фреймворк, не важно торч или тензорплов, у них градиенты аккумулируются похоже. Я хочу тренировать на них простую рекурентную сетку. Как мне это сделать, чтобы каждый раз, когда я прогоняю форвард, у меня не считало все операции с самого начала? Можно ограничить количество шагов и как? А если я хочу например запихнуть ее вмести с другой сеткой, а там куча операций? Как избежать переполнения памяти? Очень нужно, ничего по теме не нагуглил. Желательно ткнуть в место где это решается на пайторче.
Аноним 09/02/20 Вск 13:55:14 1596191282
>>1596139
Ты ошибаешься. Rnn всегда разворачивается в фидфорвард сетку длиной в 5-10-100 степов. Дальше есть вариант сохранять предыдущий стейт между батчами или нет, но градиент так далеко распространяться не будет.
Гугли фреймвокрнейм backpropagation in time. Ну и внимательно пройди туториал по самостоятельной имплементации рнн без фреймворкомагии
Аноним 09/02/20 Вск 14:06:30 1596198283
>>1596191
Но если у меня неограниченная последовательность? Нет батчей, то есть батчи по одному входу. Где-то можно указать количество шагов? Потому что по сути если я правильно понимаю, то все тензоры сохраняют историю и при прогоне backward метода эта история задействуется. Нерезонно сохранять историю на тысячи и тысячи шагов. Или в фреймворках какраз таки встроенные рекурентные сети не сохраняют эти шаги? Я знаю что можно удалять историю когда угодно, но опять же мне нужно все еще сохранять определенное количество шагов. Ну и так как я хочу вставить эту сетку как матрешку в большую модель, то нужно удалять шаги во встроенном методе, а не в самом обучении.
Аноним 09/02/20 Вск 14:27:36 1596210284
Аноним 09/02/20 Вск 14:50:31 1596240285
>>1596210
Я всё прогуглил. Нихуя не понятно. Что это за значения и откуда мне их брать? Какие переменные мне подчищать и по каким узнавать какие?
Аноним 09/02/20 Вск 17:16:08 1596428286
>>1596139
Короче, решил я эту проблему, но не уверен, правильно ли. В гугле ответов я не нашел, там где у людей такая же проблема никто не пишет, а предлагают только чистить память каждую эпоху. В доках я проверил у торча написано что nn.lstm на выходе дает output, в котором все шаги t. Если я правильно понял, то можно просто удалить отсюда ненужные шаги и все будет нормально. Так и сделал, написал чтобы detach вызывался на первый элемент тензора по нулевой оси, а затем перемнной output присваиваю ее же саму только в качестве среза без первого элемента. Хуй знает будет ли это работать.
Аноним 09/02/20 Вск 22:14:30 1596733287
Аноним 09/02/20 Вск 23:37:55 1596871288
Какие модели классификаторов из тех, что есть в sklearn позволяют дообучать уже обученную модель?
Аноним 10/02/20 Пнд 02:50:17 1596996289
>>1594611
А есть какое-то развёрнутое объяснение, почему учить тензорфлоу -- ошибка? Я недавно начал вкат в диплёрнинг и картинки, проводил собственное расследование, и оказалось что тензорфлоу намного больше юзают в проде, соответственно найти работу с ним проще, чем с другими фреймворками, это на самом деле не так?

Также у тензорфлоу есть развитая экосистема, можно сразу накидать пайплайн для загрузки и обработки данных, и РЕСТ апи для модели сделать и наверняка ещё много чего. У конкурентов такое есть?

Аноним 10/02/20 Пнд 05:04:00 1597012290
15754444707410.gif (69Кб, 284x264)
284x264
>>1596996
> соответственно найти работу с ним проще,
Аааа, тайдмены, что вы делаете, прекратите! Откуда вы лезете и куда? В названии треда есть слова "центр занятости населения"? С чего вы вообще взяли, что машинное обучение - это про то, как продать дяде жопу занедорого? Проституция (официальное название - "рынок труда") в соседнем треде ("мы вам перезвоним").
Аноним 10/02/20 Пнд 06:29:49 1597017291
>>1597012
А зачем ещё вкатываться в машоб? Если хочется просто хочется чего-то сложного, можно настоящей математикой заниматься
Аноним 10/02/20 Пнд 07:31:38 1597019292
>>1597017
>А зачем ещё вкатываться в машоб
Ради интереса, нет?
Аноним 10/02/20 Пнд 08:11:28 1597025293
Аноним 10/02/20 Пнд 10:52:50 1597065294
>>1596996
Вакансий по мл мало по сравнению с остальными кодерскими. Для датасайенса желательно математическое образование, а для нейронок знание крестов.
Аноним 10/02/20 Пнд 11:08:43 1597069295
Аноним 10/02/20 Пнд 11:17:32 1597075296
>>1596996
Потому что я уже заебался гуглить какой стиль идиоматичен в этом сезоне, и наблюдать десятки новых deprecated ворнингов в коде, который просто работал. Попробуй для прикола поискать, как сделать lstm в tf2.0. Будешь придираться сквозь десятки ответов для tf1.x которые будут давать тебе очередные депрекейтеды. Гугл поддерживает опенсорс как будто это их внутренняя корпоративная разработка, на юзеробазу похуй.
Аноним 10/02/20 Пнд 11:22:57 1597077297
>>1597012
Дело не только в продаже жопы, дело скорее в том, что любой мало-мальски сложный проект почти наверняка потребует дохера спецов с разными скилами, потому что в 21 веке в соло ничего толкового не сделаешь, а от проектов уровня лаба1 никакого удовлетворения нету. Есть идеи как преодолеть это ограничение? Даже если пишешь в опенсорс за бесплатно или соревнуешься на каггле, имеет смысл использовать что-то, что широко используется, чтобы твои идеи куда-то пошли и вообще имели смысл.
Ну и кушать то хочется, или ты из тех, кто предлагает днём писать на жабаскрипте, чтобы выполнить задачи БИЗНЕСА, а по вечерам/ночам заниматься нейроночками, в своё удовольствие?


>>1597065
Я это знаю, я в МЛ вкатился 5 лет назад, когда ещё такого хайпа не было, и тогда было по-настоящему мало вакансий. Сейчас просто пытаюсь перекатиться из скучного МЛ (табличные данные, старые методы) в супер прорывной новый МЛ с нейросетями и смузи, но это не очень просто мне даётся, очень много противоречивой информации вокруг.
Аноним 10/02/20 Пнд 11:31:26 1597082298
>>1597075
Я сталкивался с этой проблемой, не конкретно с lstm, но с тем, что очень много ответов на стэк оверфлоу и ещё много где касаются первой версии, а вторая очень очень сильно отличается. По правде говоря это не проблема поддержки гугла или тензорфлоу как такового, просто процесс смены мажорной версии это всегда напряжно, тоже самое было с питоном, тоже самое было с кучей разных фреймворков и тоже самое будет с пайторчем в своё время. Когда тензорфлоу2 был альфа, проблема стояла ещё острее, потому что даже ссылки на оф. доку вели на первую версию, сейчас уже немного лучше, со временем инфа, касающаяся первой версии самоочистится, это нормальный процесс.
С другой стороны, претензии к гуглу рили необоснованны, они выпустили дофигища материалов к выходу 2 тф, и документацию норм написали, и обучающие статьи на офф сайте. Не каждый "настоящий опенсорс" фреймворк так заморачивался.
Аноним 10/02/20 Пнд 12:06:03 1597097299
>>1597077
Проталкивай нейронки на работе.
Аноним 10/02/20 Пнд 13:24:11 1597151300
>>1597082
Ты статистику по пейперам посмотри. Пайторч за год вырос в разы, тф упал.
Аноним 10/02/20 Пнд 17:28:29 1597377301
>>1597151
Где эти рейтинги смотришь?
Аноним 10/02/20 Пнд 19:57:29 1597478302
>>1597151
>Ты статистику по пейперам
Говноед, опять со своими пейперами? Ну хоть кто то эти безполезные высеры матанопетушни читает.
Аноним 10/02/20 Пнд 20:26:44 1597498303
>>1597478
индусогоспода ссут в рот дебилам с перевернулой а
Аноним 10/02/20 Пнд 20:35:01 1597504304
>>1597077
>в 21 веке ничего соло не сделаешь
>проекты уровня laba1
У меня для вас плохие новости.
Аноним 10/02/20 Пнд 21:17:00 1597545305
>>1597069
С тобой можно связаться?
фейкомыльце есть?
Аноним 10/02/20 Пнд 21:24:40 1597547306
Аноним 10/02/20 Пнд 21:53:46 1597575307
Аноним 10/02/20 Пнд 21:54:16 1597577308
>>1597097
Я в аутсорсовой компании работаю, продаю жопочасы, здесь проекты подходящие под нейронки очень редко бывают, а на стандартный табличный проект пихать нейронки это безумие.

>>1597151
Согласен, видел я эту статистику, видел кол-во упоминаний на крутых конференециях в 2018 и 2019 годах, действительно пайторч в академической среде процветает. Проблема в том, что тензорфлоу2 ещё пока что не проявил себя, не набрал аудиторию, а нововведений много, думаю нужно ещё подождать, пока картина не прояснится.

>>1597504
Ну давай, расскажи мне: Чешские программисты. Сайт за выходные. Миллион долларов из бюджета?
Аноним 11/02/20 Втр 00:14:55 1597681309
У меня следующая задача
Есть паблик ВК с анкетами
https://vk.com/hikkyznakomstva

Для всякой статистики хочется из анкеты уметь получать пол человека (не всегда он явно указан).
Векторизация через TF-IDF на 30000 фич + Linear SVM дают accuracy около 80%.
Есть какие-то идеи, как ещё это можно сделать?
Аноним 11/02/20 Втр 00:49:06 1597697310
>>1578978 (OP)
Анон, как вкатываются в "Нейронные сети"?
Очень интересно это направление. Пока что прохожу курс MIT "введения в компьютер сайнс" и изучаю общие принципы программирования (пишем на Питоне 3).

Какие дальнейшие действия нужно сделать, чтобы работать в этой области?
Аноним 11/02/20 Втр 00:52:23 1597699311
>>1597697
Поясню свой вопрос: речь именно о том, как парнишке из рашке самостоятельно вкатиться в эту область и делать что-то крутое (проекты уровня создания ботов для яндекс-транслейта)? Может менее масшатбное.

То есть, про путь в ИРЛ, а не про теорию.
(В шапке ответ дается в более общем виде, про то, какие книги читать и тд.)
Аноним 11/02/20 Втр 02:48:43 1597728312
>>1597697
>Анон, как вкатываются в "Нейронные сети"?
Через постель, иначе никак. Все математики через нее проходят.
Аноним 11/02/20 Втр 02:51:28 1597729313
>>1597728
как кастинги проходят?
Аноним 11/02/20 Втр 04:35:12 1597735314
>>1597728
Обожаю русский язык, нейрончики, машоб, Постель (язык программирования Postil, я так понял - выдает на edx ссылку).
Аноним 11/02/20 Втр 11:08:19 1597843315
Привет двущ, есть задача натренировать сеть видеть объекты на картинках 2045х2048 (16 бит оттенков серого). Размер датасета 6000, но думаю там гораздо меньшего количества хватит, порядка 1000. Вопрос: мне хватит видеокарты с 8гб видеопамяти?
Аноним 11/02/20 Втр 11:41:11 1597864316
>>1597843
Имеется в виду RCNN или что-то такое. Может быть U-Net.
Аноним 11/02/20 Втр 11:43:49 1597866317
>>1597577
Это вот эта толпа васянов?

https://tjournal.ru/internet/139477-cheshskie-programmisty-besplatno-i-za-vyhodnye-sdelali-sayt-na-kotoryy-ministr-hotel-potratit-16-mln-evro-ego-uvolili

Это подковерные игры и хуета, один политик захотел убрать другого, созвал ебланов они наговнили хуеты, типа "ох как нидораха мы сделали", а то что на доведение этой пиздообразии понадобится столько же денег, сколько бы стоил бы "дорогой" проект никто не увидел.
Аноним 11/02/20 Втр 14:10:45 1598080318
>>1595135
вкатывайся
сам планирую, ибо нет времени самостоятельно гуглить что-то
Аноним 11/02/20 Втр 18:04:26 1598347319
>>1597843
уменьшить картинку нельзя?
Аноним 11/02/20 Втр 19:11:02 1598437320
>>1598347
Теперь тоже думаю над этим. А если я знаю, что искомый объект на картинке будет не меньше и не больше какого-либо размера, могу ли я сэкономить на промежуточных слоях?
Аноним 11/02/20 Втр 19:25:44 1598452321
15740463911470.png (63Кб, 390x470)
390x470
>>1598080
> вкатывайся
> сам планирую, ибо нет времени самостоятельно гуглить что-то
Ещё у одного зумера вкатывальщика нет времени на раскачку, поэтому он считает, что инфоцыгане с курсами все сделают за него и недорого! Вот реально, давно уже читаю этот тред чисто поорать.
Аноним 11/02/20 Втр 19:34:31 1598455322
>>1598437
Сомневаюсь. Наверное можно какой-нибудь сглаженный clip навесить на размер bounding box'ов, но не думаю, что размер сетки можно будет сильно уменьшить.
Аноним 11/02/20 Втр 19:45:11 1598462323
>>1598437
Можешь receptive field выходного нейрона посчитать и подрезать длину и ширину фильтров.
А вообще читай пейпер по efficientnet, там тема эффективных классификаторов закрыта для большинства задач, лучше ты вряд ли придумаешь.
Аноним 11/02/20 Втр 19:51:54 1598469324
>>1598462
>>1598455
Ну да, лучше в сторону уменьшения площади топать. Не подумал чёт.
Аноним 11/02/20 Втр 21:28:32 1598588325
Аноним 11/02/20 Втр 23:00:17 1598757326
>>1578978 (OP)
Сап, двачь. Возможно меня закидают тапками, но... Какие лучше языки учить для практической реализации этого всякого? Что вообще требуется для этого дела, с чего начинать? Да, я сейчас начну читать материал из шапки, но глаза разбегаются, если честно. Дело в том, что я совсем нуб, только поступил на первый курс программошараги и практически ничего на знаю, но тема нейросетей меня заинтересовала.
Аноним 11/02/20 Втр 23:10:42 1598777327
>>1598757
Основы питона(синтаксис, алгоритмы, пару интересных приложений напиши)+библиотеки по работе с данными+математика. Освой хорошо базу (особенно если ты только поступил, значит время у тебя есть). Затем уже смотри машинное обучение, алгоритмы и т.д. (думаю там уже сам разберёшься)
Аноним 11/02/20 Втр 23:29:40 1598802328
>>1597077
>я в МЛ вкатился 5 лет назад
Как это сделал?
Аноним 12/02/20 Срд 09:01:54 1599005329
Аноним 12/02/20 Срд 10:47:18 1599051330
>>1597843
> натренировать
Ты хотел сказать дотренировать? Потому что иначе 6к датасета не хватит очевидно.
> 2045х2048
Скейл до 512x512
Аноним 12/02/20 Срд 10:57:31 1599057331
>>1597681
Попробуй другие модели, а не svm. Catboost например
Аноним 12/02/20 Срд 12:02:44 1599090332
>>1599051
У меня по факту два объекта всего.
Аноним 12/02/20 Срд 14:31:06 1599166333
>>1597843
Как будто у тебя выбор есть. 12 не сильно больше чем 8 и это разница в 0.5 батчсайза
Аноним 12/02/20 Срд 14:32:51 1599168334
>>1599051
6000 объектов это немало, а
>Скейл до 512x512
Выдает в тебе теоретика, который вообще не понимает, как работают cnn
Аноним 12/02/20 Срд 15:40:05 1599227335
>>1599168
Если классов немного, то норм. С скейлом обосрался, да.
Аноним 12/02/20 Срд 16:28:53 1599276336
>>1599227
У меня ещё на каждой картинке присутствуют все классы. Будем копать. Боюсь до 500 пикселей у меня ужать не получится. По идее это же все можно высчитать, сколько жрать будет. https://datascience.stackexchange.com/questions/17286/cnn-memory-consumption наверное актуально ещё
Аноним 12/02/20 Срд 16:38:03 1599292337
>>1599276
Если тебе нужно 500 пикселей, ты делаешь первый слой с числом фильтров 1 и страйдом 4, и все, на втором слое у тебя будет 500 пикселей, а как именно даунскейлить нейронка уже сама решит. Или 2 слоя со страйдом 2 - так будет быстрее за счет экономии на ширине фильтров. Памяти это съест сам посчитай сколько, лишних 16 мегабайт, ну и на несколько процентов упадет скорость. Это намого проще, чем каждый раз пилить ad-hoc датасет. Да и если не влезает, скорее всего лучше разрезать твои 2000 пикселей на картинки 512х512 с 50% перекрытием, чем даунскейлить.

Сетка такого рода у тебя влезет всегда, даже на 4 гб карточку, вопрос в том, какой батчсайз у тебя будет, 16, 32 или 48, а это уже будет влиять на скорость обучения (с меньшим батчсайзом нужно уменьшать лернинг рейт), но на итоговое качество влиять будет минимум.
Аноним 12/02/20 Срд 17:06:42 1599316338
>>1598452
"пожалуйста", продолжай держать нас в курсе, нищенка
Аноним 12/02/20 Срд 17:12:10 1599321339
>>1599292
У меня вообще на картинках довольно яркие объекты (локализированы), а вокруг просто чернота. Думаю может просто перед этим через трешхолд обрезать все вокруг.
Аноним 12/02/20 Срд 17:13:29 1599324340
>>1599321
Думаю до 600-700 пикселей однако ужать вполне реально
Аноним 12/02/20 Срд 17:36:25 1599350341
Поцаны. Кто-нибудь шарит в трансформерах? Я весь код прошерстил, все популярные и неочень статьи перечитал, но так и не понял. Где брать target sequence то есть output который входит в декодер при первом атеншене? Судя по тому, что используется маска на будущие слова, этот выход мы имеем еще до запуска сетки. Очевидно что когда мы хотим воспользоваться сеткой, мы еще не имеем ее результата. Тогда что туда вставлять не зная выхода заранее на позицию output/tgt?
Аноним 13/02/20 Чтв 16:48:54 1600460342
48052853387a710[...].jpg (1185Кб, 1152x1157)
1152x1157
Дорогие аноны, добрый день!

У меня не самый очевидный вопрос и, возможно, совсем не по адресу. Дело в том, что я хочу исследовать некоторый класс видеороликов на youtube для сравнения их технических данных (например, скорость смены кадра, динамику, цвета, да и вообще всё, что можно). Однажды мне нашептали, что это можно сделать только с помощью нейросеточки. Внимание, вопрос: насколько меня наебали и, если нет, насколько невозможно исполнить такую машину, анализирующую класс роликов?

Всем ответившим заранее мешок чая.
Аноним 13/02/20 Чтв 17:21:06 1600480343
Антоны, я вот думаю, как можно сделать субклассы?
У моих классов есть много общих деталей, их даже можно свести до них, как бы этой информацией воспользоваться.
Аноним 13/02/20 Чтв 19:18:53 1600575344
>>1600460
Странно вообще. Можно это сделать любым способом, хоть простыми elif выражениями. Естественно тебя наебали, нейроночка тут никаким местом. Но вообще вопрос в том, как именно тебе надо эти видео анализировать.
Аноним 13/02/20 Чтв 19:19:56 1600576345
>>1600480
Сделай еще один классификатор на другой сет классов.
Аноним 13/02/20 Чтв 19:24:47 1600593346
>>1599292
>с меньшим батчсайзом нужно уменьшать лернинг рейт
С чего это?
Аноним 13/02/20 Чтв 19:41:22 1600618347
>>1600460
Ну ты вначале пойми, что ты хочешь. Скорость смены кадра – плотность ключевых кадров? Динамика цвета, что это?
Аноним 13/02/20 Чтв 19:43:14 1600622348
>>1600593
Будешь более случайно "прыгать" и поэтому лучше это делать недалеко?
Аноним 13/02/20 Чтв 19:55:12 1600637349
>>1600575
Не совсем понял вопрос (вероятно, потому что в проганьи я ламер пока что и слабо представляю как это возможно вовсе). По-хорошему нужно бы найти все схожие технические черты их создания (от схожих появляющихся персонажей до динамики смены кадра, как и упомянул).
Аноним 13/02/20 Чтв 20:00:29 1600648350
>>1600618
Про плотность похоже на правду!
А вот как понять, чего я конкретно хочу, если мне неизвестны возможности технического анализа?( Хочется в итоге разобрать все особенности класса роликов, которые делают их близкими (помимо их авторского определения). А вот какие тут могут быть параметры – уже вторичный вопрос для меня, который зависит от доступных методов!
Аноним 13/02/20 Чтв 20:15:43 1600660351
>>1600637
Так тебе нужно просто статистику? Тогда в чем проблема? Сделай скрипт чтобы собрать информацию по роликам, а потом построй графики. Matplotlib для построения графиков в питоне подойдет. Думаю не будет и проблемой найти в интернете библиотеки для обработки видео.
Аноним 13/02/20 Чтв 23:08:24 1600957352
>>1600576
А как его использовать вместе с моей моделью тогда?
У меня распознавание иероглифов ведется, я прогоняю картинку с текстом через CNN и вектор признаков идет в LSTM.
Все иероглифы можно свести к паре сотен радикалов(составные части).
Аноним 13/02/20 Чтв 23:10:48 1600964353
>>1600957
Но другое дело в том, что эти радикалы не всегда видно.
Аноним 14/02/20 Птн 00:11:47 1601054354
>>1597843
Уменьшить картинку так, что бы объекты было ещё видно и нарезать патчиками
Аноним 14/02/20 Птн 00:20:32 1601062355
>>1596996
Учить тензорфлоу ошибка потому что на самом деле ВСЕ фреймворки примерно одинаковые между ними разница примерно как между различными библиотеками для линейной алгебры. Основная причина не учить тензорфлоу новичку это кривое Апи и то, что. tf2.0 это практически другой Фреймворк.
Аноним 14/02/20 Птн 00:20:38 1601063356
>>1600660
А по каким кейвордс такое искать?
И спасибо! <з
Аноним 14/02/20 Птн 01:07:45 1601116357
Аноним 14/02/20 Птн 02:12:10 1601141358
1
Аноним 14/02/20 Птн 02:21:47 1601143359
>>1597866
Я согласен с этим тезисом, посмотри в каком контексте я написал своё сообщение и на что я отвечал.

>>1595135
Если только из-за бабок, то рекомендую всё-таки посмотреть на жабаскрипт и веб, или ещё что-нибудь альтернативное. Если совсем нет времени и бросить/приостановить основную работу нет возможности, попробуй войти тестером и дальше уже по ходу дела доучиваться, вращаясь в айтишной среде. Дата сатанистом сразу зайти я бы сказал сложновато, по крайней мере в моём регионе.

>>1598802
Нужный факультет; курсовые; дипломная работа; курсера, едх, удасити; куча собесов, большинство из которых я слил просто в 0; десяток обещаний перезвонить и разочарование в МЛ; желание стать просто прогером; внезапно подвернувшийся самый последний-препоследний собес; внезапно получил оффер прямо в конце собеса.

На самом деле можно целую простыню на эту тему написать, но наверное это не так интересно. Сейчас войти в ДС намного проще, по моим ощущениям требования ниже, вакансией больше, ЧСВ у собеседующих меньше. тем не менее, вкатывальщикам я всё равно советую посмотреть на что-то другое
Аноним 14/02/20 Птн 02:26:19 1601144360
>>1600957
Ну ты определись тогда, ты классифицируешь или просто прогоняешь свертку. На кой хер тебе тогда дополнительные классы? Или ты пытаешься свою же нейронку обхитрить? Вообще я бы тебе посоветовал сделать распознавание, а потом иероглифам присвоить ембеддинги, потому что врятли твоя CNN справится с задачей обработки натурального языка. Хотя даже если ты и попытаешься, то это просто невыносимо смешно делать это без полносвязного слоя, потому что свертка изображения это очевидно не лучший способ представить лексическое значение.
Аноним 14/02/20 Птн 04:14:51 1601168361
>>1601144
Полносвязный слой можно рассматривать как частный случай сверточного слоя с valid пэддингом и шириной фильтра во всю картинку предыдущего слоя. Если у тебя ширина меньше, ты просто рассчитываешь более мелкие нейронки со сдвигом. Поэтому fully convolutional networks не хуже олдскульных с персептроном в конце
Аноним 14/02/20 Птн 04:21:31 1601170362
>>1600480
>У моих классов есть много общих деталей, их даже можно свести до них, как бы этой информацией воспользоваться.
Нейронка уже этой информацией пользуется.
Аноним 14/02/20 Птн 09:20:22 1601234363
Аноним 14/02/20 Птн 12:41:17 1601371364
>>1601054
Типа искать не круг, а грубо говоря четвертинку круга итд?
Аноним 14/02/20 Птн 13:31:43 1601440365
Аноны, выручайте
Какие сетки используются для решения задач регрессии?
Я пока нашел только mlp, rbf, grnn, но по сути это же вроде как все вариации mlp. Неужели нет какой-то суперпиздатой структуры чисто под регрессию кроме mlp?
Аноним 14/02/20 Птн 14:03:55 1601513366
>>1601144
У меня не только CNN же, она работает вместе с LSTM, где языковая модель и формируется.
В самом начале сеть InceptionV3, со слоя Mixed_5d я подаю все в LSTM.
> Или ты пытаешься свою же нейронку обхитрить?
Ну типа того, я же не могу узнать, насколько она успешно сама использует эту информацию.
Аноним 14/02/20 Птн 14:55:33 1601622367
>>1601513
И какой смысл накладывать на lstm проблему с распознованием свертки?
Аноним 14/02/20 Птн 17:22:03 1601822368
>>1601440
RVM с ядром. регрессия гаусовских процессов
Аноним 14/02/20 Птн 19:22:19 1601983369
>>1601170
Нет

>>1601440
Может у тебя проблема в структуре данных, а не в том, что решается задача регрессии? Потому что я не вижу проблем с полносвязным слоем на выходе сетки.
Аноним 14/02/20 Птн 21:59:35 1602132370
124567689.png (11Кб, 515x323)
515x323
Так ли нужен softmax в бинарной классификации?
После получения модели - вот такой вот пиздец. Что делать?
Аноним 14/02/20 Птн 22:11:47 1602139371
>>1602132
В бинарной не нужен, просто сигмоиду хуячь.
А пиздец в чем?
Аноним 14/02/20 Птн 22:46:06 1602165372
1245425646.png (4Кб, 227x328)
227x328
>>1602139
Модель, получается, всё к одному классу относит(?)
А такого быть не может.
Аноним 14/02/20 Птн 22:49:15 1602168373
>>1601440
Точность подсчитай
Аноним 14/02/20 Птн 23:15:23 1602177374
>>1602165
Да, сначала посчитай точность (и на трейне, и на тесте).
Ещё проверь, правильно ли ты таргет скармливаешь. Там же наверняка one-hot нужен.
Аноним 14/02/20 Птн 23:28:39 1602185375
>>1602177
Анон, а тебя побеспокоить ещё парой вопросов можно?
Аноним 14/02/20 Птн 23:32:43 1602188376
Аноним 14/02/20 Птн 23:37:04 1602193377
>>1602188
А с тобой можно как-то связаться?
По почте, например?
Аноним 14/02/20 Птн 23:42:00 1602195378
Аноним 14/02/20 Птн 23:44:23 1602196379
Аноним 15/02/20 Суб 03:21:39 1602296380
Аноним 15/02/20 Суб 10:10:51 1602374381
>>1601822
На основе гауссовских процессов это же и есть вроде как радиально базисная сеть?
Rvm с ядром имелись ввиду опорные вектора?
Аноним 15/02/20 Суб 14:43:09 1602738382
15317719852312.webm (762Кб, 360x360, 00:00:12)
360x360
Есть тут знатоки pychrm'a?
Аноним 15/02/20 Суб 16:55:56 1602984383
Slowpoke.png (19Кб, 200x218)
200x218
>>1602738
>pytorch'a?
Медленнофикс
Аноним 15/02/20 Суб 19:54:41 1603212384
Аноним 15/02/20 Суб 20:21:54 1603252385
>>1603212
С тобой можно пообщаться как-то?
Epifany eto ty?
Аноним 15/02/20 Суб 20:36:56 1603272386
>>1603252
Можешь задавать свои ответы
Niet
Аноним 15/02/20 Суб 20:37:38 1603273387
Аноним 15/02/20 Суб 21:38:30 1603322388
Аноним 15/02/20 Суб 21:58:16 1603339389
Аноним 15/02/20 Суб 22:03:38 1603345390
>>1601622
Смысл в том, что LSTM с аттеншионом имеет языковую модель и может додумывать символы, которые CNN не может разобрать.
Аноним 15/02/20 Суб 22:06:31 1603347391
Аноним 15/02/20 Суб 22:08:25 1603348392
Кстати, Аноны, имеет ли вообще смысл обучать нейронку на цветных текстах, если можно через препроцессинг превратить любую цветную картинку в черно-белую и с помощью инвертации цветов получить черный текст на белом фоне?
Аноним 15/02/20 Суб 22:44:55 1603371393
>>1603348
>имеет ли вообще смысл
Не имеет. Перед обучением нейронки делается нормализация данных.
Аноним 16/02/20 Вск 02:22:57 1603483394
>>1584363
напиши даталоадер, посмотри в доке торч. что-то типо
class loared(Dataloader):
init: dataframe
len: len(dataframe)
getitem: return dataframe.iloc[idx]
Аноним 16/02/20 Вск 02:35:36 1603486395
>>1601143
О, ты прям как я. Одна из серьёзных проблем вката для молодёжи - практически нет предложений частичной занятости.
Аноним 16/02/20 Вск 03:54:31 1603506396
>>1603348
Имеет. Не меняй данные, меняй архитектуру под данные. Чернобелынизатор это просто слой 1х1 свертки из 3 каналов в 1. Естественно слой посложнее сможет заодно и каналы сплющить.
Аноним 16/02/20 Вск 10:18:49 1603578397
>>1603486
>частичная занятость
>для молодёжи
>датасаенс и машоб
Когда вы поймёте, что в этой сфере вас даже обучать серьёзно никто не будет, если у вас нет вышки близкой к сфере и нескольких проектов? На работу вообще без магистра тебя врятли возьмут. Это в нашем снг еще так, на западе еще труднее, лол. Комерческим мл занимаются эльфы в волшебной стране, а не тайдмены как ты.
Аноним 16/02/20 Вск 14:29:33 1603745398
>>1603578
Стажировка в яндекс по млю такая же как и у разработчика, просто спрашивают теорию + задачки.
Аноним 16/02/20 Вск 15:03:31 1603774399
>>1603578
> если у вас нет вышки близкой к сфере
По МЛ пока что обучают в 0,5 ВУЗах. Но индустрия требует больше специалистов.
Аноним 16/02/20 Вск 15:27:42 1603805400
Аноним 16/02/20 Вск 15:34:19 1603817401
Аноним 16/02/20 Вск 15:40:43 1603829402
>>1603817
>Ойтишная
МЛ там нинужны
Аноним 16/02/20 Вск 15:44:10 1603836403
>>1603829
Да ладно.
Нейронки, конечно, не панацея, но, порой, существенно облегчают задачу для финансистов, банкиров и трейдеров, для инженеров-робототехников, для всяких биологов, медиков, химиков и прочих естественнонаучников, для лингвистов.
Даже если строить цифровой гулаг, то МЛ очень даже пригодится - что и происходит сейчас в РФ - привет Грефу, Сбербанку, Мишустину и правительству.
Аноним 16/02/20 Вск 15:48:25 1603842404
>>1603836
>для финансистов, банкиров и трейдеров
Нет
>для инженеров-робототехников
Нет
>биологов, медиков, химиков и прочих естественнонаучников
Нет
>для лингвистов
Нет
Аноним 16/02/20 Вск 15:51:41 1603847405
>>1603842
Отрицающей мани ответ.
Аноним 16/02/20 Вск 15:53:37 1603851406
>>1603847
Просто ты нюфаня и еще немножко в фантазиях и манямирке.
Аноним 16/02/20 Вск 15:54:17 1603852407
>>1603851
Окей. Твоё видение ситуации и перспектив?
Аноним 16/02/20 Вск 16:05:11 1603873408
>>1603852
>Твоё видение ситуации и перспектив?
К настоящему ИИ даже на пол шишечки не подступили, а если подступят, то торпедируют.
Аноним 16/02/20 Вск 16:06:42 1603875409
>>1603873
А кто говорит про полноценный НИИ?
Я говорил, что даже несовершенные текущие нейронки облегчают жизнь. И сфер, где он могут так или иначе помочь - много.
Аноним 16/02/20 Вск 16:10:00 1603882410
Аноним 16/02/20 Вск 16:10:47 1603885411
>>1603875
>несовершенные текущие нейронки облегчают жизнь
Это где?
Аноним 16/02/20 Вск 16:13:26 1603890412
>>1603885
Таргетированная реклама, например.
Или это офис таджиков что-то считает на счётах?
Аноним 16/02/20 Вск 16:15:49 1603893413
>>1603890
>Таргетированная реклама, например.
Ну перестань, это говно все блокируют
Аноним 16/02/20 Вск 16:17:09 1603898414
>>1603893
Что, правда? На каком-нибудь амазоне или ебэе тоже? Тебе же подсовывают товары на основе того, что ты искал или покупал.
Аноним 16/02/20 Вск 16:18:57 1603900415
>>1603898
>Тебе же подсовывают товары на основе того, что ты искал или покупал.
И как это относится к моей следующей покупке? Типа купи еще раз что то подобное?
Аноним 16/02/20 Вск 16:20:52 1603903416
>>1603900
Лол, это же в учебниках и курсвах по МЛ объясняют.
Они анализируют людей, которые купили то же самое, то и ты, и их другие покупки. И вот эти "другие покупки", которых у тебя нет, тебе и предлагают.
Аноним 16/02/20 Вск 16:22:57 1603907417
>>1603903
>Они анализируют людей, которые купили то же самое, то и ты
Ок, это обыкновенная статистика без магии
>тебе и предлагают
Говно которое мне не нужно
Аноним 16/02/20 Вск 16:25:00 1603908418
>>1603907
>Ок, это обыкновенная статистика без магии
Нейронки с машобом и есть статистка, только продвинутая.
Тебе не надо ручками считать, только получить, почистить данные и правильно построить модель.
А ту думал - это универсальная пилюля от всего?
Аноним 16/02/20 Вск 16:29:25 1603916419
>>1603908
>Нейронки с машобом и есть статистка, только продвинута
Конечно, нужно же все усложнить что бы было модно и в тренде


Аноним 16/02/20 Вск 16:31:50 1603918420
>>1603916
Ты не поверишь - нанотехнологиями ещё в середине прошлого века занимались.
Аноним 16/02/20 Вск 16:34:55 1603924421
>>1603852
> Окей. Твоё видение ситуации и перспектив?
Я не он, но отвечу. В Блинолопатии с машобчиком перспектива одна - идти в какой-нибудь *плешькринжнадзор пилить электронный ГУЛАГ, всякая антиконституционная херня про распознавание лиц, обработку банковских данных без ведома людей, анализ телефонных переговоров итд. Ничего умного не сделают, разумеется, по-сути это что-то вроде Лахты.
Аноним 16/02/20 Вск 16:36:30 1603928422
>>1603924
Ну тут пока работают филиал иностранных контор или аутосорсеры.
Так что причастится к машобу таки можно.
А потом эмигрировать.
Аноним 16/02/20 Вск 17:24:52 1604003423
Аноним 16/02/20 Вск 18:45:32 1604122424
>>1603836
Ты сейчас кормишь местного шизика, у которого нейронки уже три года не работают
Аноним 16/02/20 Вск 18:59:50 1604147425
>>1604122
>Ты сейчас кормишь местного шизика
Рожки ему можно уже протереть?
Аноним 16/02/20 Вск 19:02:23 1604150426
Кто может помочь с сетью разобраться и выявить, что там не так?
Аноним 16/02/20 Вск 20:27:52 1604260427
>>1603506
А, окей, все равно я уже понял, что изначальная идея была говном, так как подобный препроцессинг не панацея, архитектура позволяет.
Сейчас смог генерировать шрифты с outline, сделал им разные размеры и цвета, увеличил датасет в 2 раза и надеюсь, что результаты будут получше, пока у нее нет достаточной инвариантности.
Аноним 16/02/20 Вск 20:43:29 1604279428
image20(117)[1].jpg (117Кб, 960x720)
960x720
Аноним 16/02/20 Вск 20:57:19 1604295429
>>1604260
Батч нормалезейшена навернуть не забудь
Аноним 16/02/20 Вск 22:06:50 1604384430
Аноним 16/02/20 Вск 22:32:01 1604464431
microsoft-azure[...].png (183Кб, 1920x979)
1920x979
Кто что скажет насчет Microsoft Azure Machine Learning? Можно через него в машоб вкатиться?
Аноним 16/02/20 Вск 22:46:35 1604533432
>>1604464
Выглядит как костыль для математиков, физиков.
Аноним 16/02/20 Вск 22:49:21 1604536433
image.png (59Кб, 920x567)
920x567
Аноним 17/02/20 Пнд 00:31:42 1604692434
>>1578978 (OP)
Как запрограммированы НН? Там тупо код
sloy1 = new float[sloy1size];
sloy2 = new float[sloy2size];
...
for(s1=0;s1<sloy1size;s1++)
for(s2=0;s2<sloy2size;s2++)
sloy2[s2]+=someFunc(sloy1[s1]);
Аноним 17/02/20 Пнд 00:50:49 1604714435
>>1604692
И что тебя смутило?
Аноним 17/02/20 Пнд 01:36:30 1604746436
>>1604464
Нет, подобные штуки нужны в основном для обмена моделями и упрощения деплоя в проду
Аноним 17/02/20 Пнд 02:38:13 1604776437
Антоны, есть где-нибудь гайд, как визуализировать аттеншион?
У меня работает все через tf.contrib.legacy_seq2seq.attention_decoder
Аноним 17/02/20 Пнд 17:18:31 1605395438
Аноним 17/02/20 Пнд 23:19:11 1605907439
>>1603924
Я уже, похоже, в таком работаю, лол.
Аноним 17/02/20 Пнд 23:23:50 1605915440
>>1603908
Нет там статистики. Ошибки не оценивают, под контролем их не держат. Вместо строгих полученных теоретически значений ошибки только еррор-рейт в продакшене. Никаких определенных способов снизить этот рейт кроме глорифайд перебора типа полученных опытным путем (считай ручной перебор всем дата-саенс коммьюнити) знаний какая архитектура лучше под задачу или автоматизированный подбор гиперпараметров. Ни один алгоритм обучения сетки не гарантирует в строгом смысле хоть какое-то значение ошибки на тесте, даже в предположении, что данные из одного распределения взяты.