Аналитическая ИИ-лаборатория EpochAI опубликовала свои прогнозы на 2025:
⭐ К концу года FrontierMath будет решен на 75%. На данный момент это самый сложный мат.бенчмарк. Текущие модели (включая o3-mini) решают его на <10%, а o3, судя по анонсам, будет решать примерно на 25.
⭐ SWE Bench Verified будет решен на 90% (сейчас это <40).
⭐ Доход OpenAI составит примерно 12 миллиардов долларов. Это почти в 3.5 раза больше, чем в 2024.
⭐ Модели будут пока становиться больше, и можно ожидать повышение цен на API в 2-3 раза.
⭐ В целом прогресс за один 2025 можно будет сравнить с прогрессом, который мы до этого наблюдали в течение двух лет, то есть с момента выхода GPT-4.
Готовящегося к запуску голосового ассистента грок-3 сравнили по уровню цензуры с ChatGPT, заставив модели общаться друг с другом. И вот что из этого вышло
>>1064516 Сравнение = хуйня, advanced voice mode = ебёт, а то что Грок повторяет несколько раз в разных ответах одни и те же токены, так ещё и кровь из ушей, нахуй оно кому-то сдалось? Это просто соевый-быдло, ну ахуеть незацензуреная моделька. Надеюсь на полном релизе будет лучше, я думал наконец-таки, контент который я заслужил, а тут грок так обосрался. К постеру ничего не имею, спасибо что заносишь контент по теме АИ, ОПчик.
>>1064473 >Аналитическая ИИ-лаборатория EpochAI опубликовала свои прогнозы на 2025:
Очень хуевый, консервативный прогноз в духе линейной логики.
В этом году 100% будет невероятный прорыв.
В этом году будет создан или настоящий AGI или близко к нему. Наверняка будут найдены и внедрены новые подходы в нейросетях. Типа ризонинга или обучения на синтезированных данных.
Наверняка внедрят долговременную и кратковременную память, как Гугл анонсировал.... Агенты будут повсеместно уже... наверняка летом.
>>1064834 >>1064837 В этом году всем надоест бессмысленный хайп нейронок и инвесторы перестанут вкладывать в них бабки. Акции Нвидии еще больше упадут.
Скорее всего акции Нвидии (акции, рынок и вообще всё) очень сильно упадут, конечно. Но это не связано с нейронками напрямую.
Но хайп нейронок не уйдёт никуда. Всё только-только начинается.
Агентские системы в нейронках буквально могут заменить 99.99% работы белых воротничков.
Появится нормальная агентсткая система - все бухгалтера, менеджеры и все остальные офисные сотрудники пойдут нахер с рынка. Так же как сейчас будут массовые увольнения программистов.
Вообще, если вся твоя работа это сидеть за компьютером - ты с 99% вероятностью пострадаешь первым.
>>1064867 Да никто не пострадает. Нейронка крякнет на рабочем месте и начнет галлюцинировать. Фирма понесет убытки. С логикой у нее тоже туго, в работе лажает. Потом нейронку спишут на помойку и наймут обратно мясных работников. Дофига потерь на перенайме. Короче кабанчики как всегда, клюнут на хайп, обожгутся, потом начнется новая ИИ зима, доверия кривым нейронкам уже не будет.
>>1064878 >С чего ему останавливаться? Для этого нет абсолютно никаких предпосылок.
Ну рост количества параметров уже упёрся в потолок из-за отсутствия достаточно мощного железа, чтобы оправдать дороговизну инференса огромной нейронки. Так что всё не так идеально. Максимум параметры нарастят ещё в 10 раз, и даже такую нейронку хз как продать людям, ведь пусть там будет хоть трижды AGI, стоимость инференса он не оправдает
>>1064878 >Неужели ты не видишь что происходит последние 2-3 года? Какой невероятный взрыв качества нейросетей идёт? Только с точки зрения лабуха типа тебя. А реально ни одного рабочего нейроинструмента нет, чтоб самому не приходилось допиливать тратя аналогичное количество времени. Единственный реальный сценарий замены кого бы то ни было мясного нейронкой - это только если мясные реально вымрут и придётся скрепя сердце на место отсутствующих работников принимать гораздо менее эффективные и намного более дорогие нейронки. Кому вот эти все робослуги, допустим, нужны? Буквально за жрачку и конуру по площади чуть больше собачьей даже в РФ можно без проблем найти себе личного раба, который тебе анус языком будет полировать и в принципе изкаропки будет уметь делать в миллионы раз больше чем эта тубаретка с корявыми руками.
>>1064867 >все бухгалтера Калатарка, ты ж нихуя не знаешь про то, чем бухгалтера занимаются. Что ты пишешь, дристунишка? Думаешь, небось, они циферки считают? А на самом деле, как уже тебе еблищу было миллион раз сказано: их основная задача соотносить циферки с реальным миром в котором неограниченное число ситуаций. То же касается и управляющих. И буквально кого угодно. Ты можешь убрать каких-нибудь бомжей из расчетных групп, но там и так, чмонь, буквально бомжи которые получают меньше, чем любая хуйня будет стоить. Просто съеби уже нахуй, деградилище, реально заебало твой дегенеративный понос читать. Сам небось какой нить ебловасян с 7 пальцами, балансирующий между похмельем и наматыванием на вал, но нет, надо приползти еблище скорчить, типа ты вумный. Вали в свой цех, скот.
>>1065061 > и даже такую нейронку хз как продать людям, ведь пусть там будет хоть трижды AGI, стоимость инференса он не оправдает Работа по апи вообще себя не оправдает. Кал говна по подписке, когда у тебя в часы пик, которых 18/24 просто теряются куски материалов нахуй. Вот живой пример: была у меня вчера задача на 10 часов. Теоретически с нейросеткой я мог бы её выполнить за 6 часов. Но подготовка материала занимает 2 часа. Ладно, 8 часов всё еще лучше чем 10 часов, верно? Но к этому времени уже час пик, проебываются куски материалов, приходится всё перепроверять и вставлять, доделывать самому, в итоге на выходе - 11,5 часов. Плюс оплата за токены. А я бы с нуля сам сделал за 10.
>>1065089 >Только с точки зрения лабуха типа тебя. А реально ни одного рабочего нейроинструмента нет, чтоб самому не приходилось допиливать тратя аналогичное количество времени.
Я видать чем-то не тем занимаюсь, но мою работу нейронки оптимизировали раз в 20. Зависит от кейсов
Выпуск GPT-4 в марте 2023 года выделяется тем, что GPT-4 представлял собой 10-кратное увеличение вычислительной мощности по сравнению с предыдущими моделями. С тех пор мы не видели другого масштабирования такой величины: все доступные сейчас передовые модели, за исключением Grok 3, обучались на вычислительном бюджете, сравнимом с GPT-4 или меньше.
Grok 3 представляет более чем десятикратное увеличение масштаба по сравнению с GPT-4, и возможно двадцатикратное в том, что касается обучения с подкреплением для рассуждений. Основываясь на прошлом опыте масштабирования, мы должны ожидать значительного скачка в производительности, как минимум такого же, как скачок от GPT-3.5 к GPT-4.
Модели изначально будут примерно на порядок больше GPT-4 по общему количеству параметров, поэтому мы, вероятно, увидим повышение цен на API-токены в 2-3 раза и примерно двукратное замедление скорости декодирования короткого контекста при первом выпуске моделей, хотя эти показатели улучшатся позже в течение года благодаря переходу вычислительных кластеров на новое оборудование и продолжающемуся алгоритмическому прогрессу.
Что думать о Grok 3? Можно сделать как оптимистичные, так и пессимистичные выводы о масштабировании на основе Grok 3. Оптимистичный взгляд заключается в том, что Grok 3 действительно является передовой базовой моделью со значительным отрывом от второго места, и это то, чего мы ожидали бы от "модели следующего поколения" с примерно 3e26 FLOP вычислительной мощности при обучении. Пессимистичный взгляд заключается в том, что разрыв между Grok 3 и такими моделями, как Claude 3.5 Sonnet, кажется намного меньше, чем разрыв между GPT-4 и GPT-3.5, несмотря на то, что оба представляют примерно десятикратную разницу в вычислительной мощности.
Я думаю, правильная интерпретация заключается в том, что xAI отстает в алгоритмической эффективности по сравнению с такими лабораториями, как OpenAI и Anthropic, и возможно даже DeepSeek. Именно поэтому Grok 2 не была передовой моделью, несмотря на использование сопоставимого с GPT-4 количества вычислений, и именно поэтому Grok 3 только "немного лучше" лучших передовых моделей, несмотря на использование на порядок больше вычислительной мощности при обучении.
Суммируя все это, я думаю, что Grok 3 дает нам больше причин быть оптимистичными, чем пессимистичными относительно прогресса ИИ в этом году.
===
Кроме того, я готов сделать контринтуитивное предсказание: большая часть экономической ценности систем ИИ в 2025 году и далее будет фактически исходить из этих более приземленных задач, которые сейчас не получают много внимания в тестировании и оценках. Небольшие улучшения в работе с длинным контекстом, способность разрабатывать планы и адаптировать их к меняющимся обстоятельствам, общая способность быстро учиться на контекстных ошибках и исправлять их и т.д. будут стимулировать больший рост доходов, чем возможности в математике, программировании, ответах на вопросы и т.д., которые лаборатории ИИ любят оценивать и демонстрировать.
>>1065061 Ну если там реальный аги будет, то это говно вопрос и совсем другая ситуация. Вряд ли его в паблик выпустят, просто будут улучшать его до чего-то более существенного и решать реальные вопросики, а не быдло проблемы.
>>1065107 Что и как там у тебя проёбывалось?. Ни разу не испытывал таких проблем. Пользуюсь Клодом и гопотой.
Большую часть волосиков решает Клод, а какие-то сложные CoT-модели попенов.
Изредка у клодыни бывают серьезные пиковые нагрузки, тогда я просто переключаюсь на попенов. Разумеется, без потери данных.
>>1065258 >OpenAI и Anthropic, и возможно даже DeepSeek. Именно поэтому Grok 2 не была передовой моделью, несмотря на использование сопоставимого с GPT-4 количества вычислений, и именно поэтому Grok 3 И ещё одно ебаное пиздоболище.Я гонял дипсик пару дней на художке, и его, как и ГПТ-4 - ебейше лупит однотипным нейронным шумом... ну, по сути это лупы, причём уровня клауди-инстант. Да с виду дорохо-бахато, но на деле он сосет посасывая у гемини и опуса. Жопачат - это просто жопа, в худло он не способен, так же как и в несломанный русский. Единственный плюс реальный дипсика в том, что он может слеовать сложным промптам, как гемини и клауди, жопа - не может. Грок тоже может. Какого хуя эти хуесосы, спрашивается, приплетают каждый раз устаревший жопотрахчат? Я даже не могу имаджинировать, а главное не хочу, ебала мышей жрущих этот кактус под слоем впнов, когда есть лучшие модели.
>>1064878 >Неужели ты не видишь что происходит последние 2-3 года? Какой невероятный взрыв качества нейросетей идёт? Какой? Ныне отключенная гпт3.5 не была тренирована под реальные игры, но с отрывом обыгрывала большие, свежие, и тренированные на игры модели. Сейчас модели даже на простые вопросы не могут давать связный ответ, пишут шизу и еще "думают" перед этим.
Знаете что нам за эти два года нескончаемых релизов гуманоидных роботов так и никто не показал их взаимодействия с питомцами, стариками, инвалидами и маленькими детьми, младенцами. Максимум что у нас сейчас есть это как группа трешстримеров нигеров разьебали свой же робот от Unitree robotics под их дикарское улюлюканье. Сами посудите такие роботы в первою очередь направленны для дееспособных групп населения, но так никто пока не презентовал похожее.
>для дееспособных групп населения ну наверное чтобы взаимодействовать с недееспособными и "питомцами", нужно сначала до идеала оттчить взаимодействие с дееспособными? не? или смотреть как твой робот детает хот дог из твоей собаки, учит ребенка тыкать вилкой в розетку или спускает вниз по лестнице инвалида старика в открытый полет?
>>1065343 >Ты просто неправильно используешь чатгпт Я это говно, как уже миллион раз, не использую вообще никак. Как только куктропики вышли - жопочат был моментально обоссан и забыт. А это произошло почти сразу. я смотрю новые модели, но говновоз и ныне там: говорящя википедия, сама по себе концепция хуйня. Машка всё правильно делает, у него хотя бы (((осознающий))) себя ллм, который способен следовать промптам, а не срущий калом из баз данных без каких либо изменений, кроме галюцинаций.
>>1065481 >Как тебе нейронка будет вести чёрную бухгалтерию? Чувак, она и белую не сможет. Бухучёт это вообще не про цифры, посчитать там это самая легкая хуйня. Самое главное как это и куда записать, провести. И это невозможно определить тупо по бумажкам так как напрямую связано с деятельностью и тем как себе это конкретный человек представляет, там даже отдельно существует "аудит" - дисциплина в которой готовят отдельных людей, способных в чужом фарше разобраться. Стандартизировать это невозможно, как невозможно стандартизировать частоту с которой тебе на голову весной с карнизов сосули падают. Это не говоря о том, что никто ничё стандартизировать и не хочет, тогда нахуй вообще наебизнесом заниматься.
>>1065620 Просто торговля змеиным маслом. Машинное зрение всё еще хуйня. рассуждающего ядра нет, которое не решит тебе, подцепив контекст постороннего разговора, налить чашку незамерзайки.
>>1065702 >как только будет дешевле купить агента от OpenAI или других. Ок. Сегодня попенай под ддосом. Чё, ляпапам пацаны? А завтра сранкции/новый аи акт/что угодно еще - и чё? Не работаем, баланс не делаем? Съеби уже, калатарка, обоссаная.
Я могу сказать только одно - художники средней руки отсасывают, а вот те кто зарабатывал 200к в месяц, им даже еще лучше стало. Так что надо с этим что-то делать. С программистами та же фигня.
>>1064878 >Неужели ты не видишь что происходит последние 2-3 года? Нейронки появились в мейнстриме, стали едва рабочими, с тех пор держатся на +- одном и том же уровне. Немного улучшили вывод, больше ничего, такие же бестолковые как раньше.
>Какой невероятный взрыв качества нейросетей идёт? А где? Качества не вижу, как первые были, так и последующие тупые. Просто датасет расширили на весь интернет, от чего у них информации больше стало и кажется, что больше умеют. Но гугл до сих пор дает информацию точнее, чем нейронка, просто чуть дольше гуглить надо.
>С чего ему останавливаться? Для этого нет абсолютно никаких предпосылок. Датасет расширять больше невозможно, все что можно уже в него загнали. Так что дальнейшую иллюзию умности создавать не смогут, будут топтаться на плюс-минус том, что есть. Дипсик на Q8 вполне возможно максимум, что возможно, дальнейшие улучшения будут минимальными.
>>1065803 Художникам средней руки ничего не мешает освоить нейронки. Тогда они сразу станут художниками хорошей руки. Тут скорее копротивление художкобыдла, они привыкли уже рукой рисовать, вот и не хотят переходить. А новый класс художников, который активно нейронки юзает, еще не образовался, переучивание медленный процесс. В ютубе толпа нейродебилов генерирующих художку по промтам, как обезъяны у однорукого бандита, а вот настоящих художников, которые в процессе создания грамотно используют нейронку, раз два и обчелся. Причем у тех единиц, кто сообразил, результаты очень качественные и итог даже на нейронку не похож.
>>1065832 >Датасет расширять больше невозможно, все что можно уже в него загнали. Нихуя там нет, только вики и какие-то странницы с короткими описаниями продукта, нейронке еще нужно все аниме просмотреть и все двачи прочесть.
>>1065731 >Ага, только вот агенты работают буквально 24\7\365, без усталости, отдыха и перерывов. Под ддосом они работают? А когда тебе акк прибанят без объяснения причин будут работать? А если ты родился не в той стране или еще хуже - в Проклятой? Тоже будут работать? Ебало того, кто готов строить бизнесь на базе чего-то находящегося в стане литералли твоего врага а я даже не скотопатриотская вата имажинировать очень легко, достаточно посмотреть на сотни бизнесов мелких, которые сдохли с баном инстаграма.
И это мы еще не доходили до обновления Х от виндовс! А ведь рано или поздно этот день настанет и эффект будет большим, чем от ядерной Бонби.
Ты кстати, свидетель агентов видал, как в одной стране на букву Р один из крупных банков - Сбербанк - по всей стране свои банкоматы демонтирует? А что случилось? Выгодно же пиздец! Чё там как робокассы в пятерочке, к которым нужен специальный ЧЕЛОВЕК чтоб она работала не потому что касса тупая, потому что люди тупые и воруют еще. Не кассир. твёрдо и чётко.
А когда у тебя на работе кто-то научиться арбузить твоего ИИногента и ты налетишь на бабоскь, потому что арбузить ИИногента гораздо проще чем арбузить живого человека, который может нахуй послать.
Ну и самое дорогое и вечное: А КТО НАХУЙ ОТВЕЧАТЬ-ТО ЗА ВСЁ БУДЕТ, ЧМО ТЫ ТУПОГОЛОВОЕ? ТЫ НАХУЙ ОТВЕЧАТЬ БУДЕШЬ. Не васян с мат.ответственностью, на которого можно всех собак повесить и кинуть системе в пасть. Нет. И опенаи за хуйню ИИногентов отвечать не будет, они нахуй вообще в другой стране и вообще там соглашение. ОТВЕЧАТЬ СУКА ЧМО ТУПОРЫЛОЕ - БУДЕШЬ ТЫ. И поверь, между вероятностью неиллюзорно присесть или кинуть пару косарей в мешок с говном, который если что сядет - выберут второе. Именно поэтому никаких ИИ-таксистов тебе не будет в хуяндексе на дорогах где бОльшая часть водителей - мясные.
>>1065855 Как там в манямерке твоем с воображаемыми обнищавшими рисобаками? Художники, которые реально художники, вообще ничего не случилось. Отлетело 0,00000000000003% вчера окончивших курсы вылезаторов, которые за час обрабатывали в фотошопе картинки из гугла. Ну, можно конечно сказать - художники, но вообще-то нет.
>>1065803 >Я могу сказать только одно - художники средней руки отсасывают Вроде никто не отсасывает кроме тебя. У норм пацанов сезон скоро начнется, садики на ремонты летом закрываются, вся детская хуйня - километры стен надо микки-маусами изрисовать. Нейронка это уже может?
>>1065748 >ставлю локалку Деньги на пукарню на которой твоя лоКАЛка будет нормально работать, ну хотя бы 70б ты с воздуха берешь? Ну бери, проблема в том, что не у всех они есть. Ах да, я забыл, ведь лоКАЛку-то в принципе любая тетя зина из маназина может развернуть, мхех. Потом еще кастылей сверху всех накрутить, хуйня вопрос. Твоя мамка-то уже лоКАЛку поставила чтоб у неё была умная избушка?
Человек с таким ебальником просто не может быть нормальным. У меня от него, блядь, эффект зловещей долины. Словно это резиновая маска, которую надел психопат.
>>1066062 А, ну теперь я понял! Эта хуйня себе ринопластику сделала и, возможно, кольнула верхнюю губу, чтобы бойфренда орально радовать, видимо. Вот только не подрасчитал его пластический хирург, что на таком ебальнике такой нос будет смотреться не органично.
>>1066061 Пукарня под полную Deepseek Q8 стоит 7к баксов. С перспективой дальнейшего снижения до 2к-3к в ближайшие годы. Не так и много, любая фирма потянет, а вскоре и любой желающий сыч.
>>1066151 Ага, любая. Уже все побежали в ДНС закупаться, где любой компонент может рандомно твои пол ляма превратить в дымящийся кирпич. Ах, да, зачем им днс, ведь любая российская фирима может заказать с гарантией на амазоне. Просто иди на хуй, фантазёр.
>>1066156 Какие-то шизофантазии, ты комп что-ли никогда не собирал? Пука под дипсик собирается так же как любая другая пука, если сбойный модуль памяти попадется или другой компонент, он легко заменяется. Единственно цена сейчас выше обычной пуки под игры, которую за 2к можно собрать, а под дипсик за 7к, вот и вся разница. В той же локалламе на реддите полно народу уже собирает.
>>1066187 >Какие-то шизофантазии, ты комп что-ли никогда не собирал? Не собираю по одной причине: не хочу потом из-за брака в БП или еще какой хуйне ждать месяцами за свои 600к, когда могу юзать по апи. на данном этапе жрать лоКАЛ - это надо быть прыщеблядком как минимум.
>дипсик за 7к, вот и вся разница Ой какой ты пиздлявый. Фактически ты можешь там только 32б запустить и это не то же самое 600б.
>В той же локалламе на реддите полно народу уже собирает. Красноглазые пердолики собирают лоКАЛ без задач за потраченное время, деньги и бесконечный пердолинг. Мне моё время дороже и я уж точно не собираюсь такой хуйней заниматься, а уж кабаны - тем более, да еще и в стране где раб.сила стоит как грязь из под ногтей. Очнись блядь, пердоля.
>>1066240 В локалке можно без цензуры и все твои чаты приватные, на них не тренирует никто ничего.
>Ой какой ты пиздлявый. Фактически ты можешь там только 32б запустить и это не то же самое 600б. Нет, там Q8 запускается полная на эпике со всеми 671Б параметрами, которая 700гб весит. Знаток ты конечно, сидит в теме новостей по ИИ, а даже не в курсе что уже полный дипсик запускать локально можно. На сайте китайцев ровно такая же запущена, только там тайматы регулярно дают. В локальной все ровно тоже самое, без таймаутов.
>>1065046 Как же гоев разводят. Везде видно невооруженным глазом огрехи и баги, лица расплываются, но бабок уже как на половину видеокарты начального уровня вывалил.
>>1066483 >В локалке можно без цензуры Без цензуры можно в дипсике, гроке, степ-2, немотроне. Причем забесплатно. И это лучше лоКАЛа в сотни раз.
>и все твои чаты приватные Всем поебать на что ты дрочишь, и ЦРУ не передаст твою бухгалтерию ФСБ.
>на них не тренирует никто ничего. А. ты просто ебанутая пердоля, за которой Цукенберг следит пока она серит в тубзике, ясно. Ну, с тобой разговора адекватного и быть не может, тебе ж вообще результат не важен, я сразу сказал: пердоля красноглазая - не человек.
>Нет, там Там говно, а ты пиздобол. Но даже если бы (а это не так) там запускался бы дипсисик, то как бы нахуя, если на гемини лям токенов пять баксов, а на флэше вообще центы.
>В локальной все ровно тоже самое, без таймаутов. Верим. И лоры убыстряющие то же самое дают. Честно-честно. Просто это волшебство. Потерь нет!
Подытоживая эту ветку восстания красноглазого прыща-пиздобола: коммерс не может поднять на своем ПК сопоставимую по тратам и качеству модель. Когда-нибудь - сможет, но не сейчас. Сейчас есть только умалишенные пердоли, который свою красноглазую ОС не смогли поднять, даже когда официально майки из РФ ушли. Что с вами не так? Ах, да. Причина как всегда одна и та же: очень много пиздоболия и манямирковости. Простоссу тебе в ебало заочно от всех кабанов России. Ну, а про надежность апи я выше писал, это очевидные вещи. Так что никакого тебе ИИ-рая в РФ и вообще в мире в ближайшие годы, ведь чем больше людей насядет на сервера - тем еще хуже будет, а масштабировать они будут хуйню, которая сейчас на гос.сиське висит и у корпов в убытках, а когда прикинут писю к носу сколько это РЕАЛЬНО электричество и затрат на обслуживание будет стоить, то если и не свернут, то начнут просаживать физиков (прям щас уже это делают), чтоб не сосали от грааля, да их уже и так кидают на говно, ты вон сам радостно уплетаешь лоКАЛ еще и другим рекомендуешь. Ну и плюс на обслуживание этой инфраструктуры нужно будет ровно столько же людей, а то и в разы больше, чем они "освободят".
>>1066531 Ты опять на связь выходишь, мудила? Крути дальше, пердоля. Без каких либо урезаний. Как же здорово быть красноглазым пиздоболом. Уже жду когда в/на остановочном магазине зину заменят на дипсик-агента, мхех.
>>1065624 Это понятно, ну они могли бы в целях пиара пару раз показать как робот кормит младенца или чистит старика. Все для предоставления целепоказаний что они готовы к миллиардам старикам что скоро появятся из-за нарастания демографического кризиса.
Motherboard: Gigabyte MZ73-LM0 or MZ73-LM1. We want 2 EPYC sockets to get a massive 24 channels of DDR5 RAM to max out that memory size and bandwidth.
CPU: 2x any AMD EPYC 9004 or 9005 CPU. LLM generation is bottlenecked by memory bandwidth, so you don't need a top-end one. Get the 9115 or even the 9015 if you really want to cut costs.
RAM: This is the big one. We are going to need 768GB (to fit the model) across 24 RAM channels (to get the bandwidth to run it fast enough). That means 24 x 32GB DDR5-RDIMM modules. Example kits:
Case: You can fit this in a standard tower case, but make sure it has screw mounts for a full server motherboard, which most consumer cases won't. The Enthoo Pro 2 Server will take this motherboard.
Heatsink: This is a tricky bit. AMD EPYC is socket SP5, and most heatsinks for SP5 assume you have a 2U/4U server blade, which we don't for this build. You probably have to go to Ebay/Aliexpress for this. I can vouch for this one: https://www.ebay.com/itm/226499280220
Total cost: cca $6,000
6к грина чтобы ждать ответ полдня? Серьезно? Оно же охренеть какое медленное будет. Проще эти бабки дипсику закинуть и через API юзать, на полжизни хватит и на электричестве сэкономить можно.
> We are going to need 768GB (to fit the model)
А куда контекст и прочее девать? При этом это точно тот самый дипсик? Потому что он ещё есть в варианте 671b-fp16 на 1.3тб.
Больше похоже на то, как проебать 6к зелени на ровном месте.
>>1066775 Это тот же дипсик, Q8 полная модель, которая у китайцев крутится. fp16 это конвертнутая из Q8 для видеокарт, Q8 нативная, которую и тренили (китайцы тренили в fp8). Получаешь ровно то, что китайцы и натренили на своем конвеере. Скорость на локалке на том же уровне, что на китайском сайте, видео даже есть где крутят его локально в рилтайме, выдает токены на скорости чтения человека. Контекст тоже есть, в 768гб не вся модель влазит, вся модель 650гб в памяти.
>>1066985 У локальной модели больше возможностей для настройки, нет цензуры и не выдает таймаутов. Плюс на твоих данных промптов китайцы ничего не тренят, как на сайте. Для фирм последний пункт особенно важный, а 6к на комп потратить для них не деньги. Ну и наконец когда она у тебя локально крутится, сразу не жмотишь бабок на токены, а задаешь ей самые тупые промпты.
>>1066975 Через года 2-3, если модели как сейчас будут тупить и не произойдет дальнейшего скачка в ризонинг. Учитывая, что со времен первичного хайпа чатгпт ничего особо не изменилось, все шансы к этому имеются.
>>1065046 >Этот пост стоил $36. Говна вышло. Вот нашел нормальный результат на VEO2 https://vimeo.com/1047370252 Целое кинцо, 5 минут, заняло 1700 финальных видео отрезков на жестком диске, из которых склейка, в процессе было 5000-7000 генераций на veo. Стоимость всего 5 мин мувика около 20к баксов.
Скорее всего сегодня состоится показ Claude 3.7 Sonnet от Anthropic. На это указывает несколько довольно надёжных источников. А вот что обнаружилось в текстовом блоке в коде сайта (перевёл с английского):
Claude 3.7 Sonnet - самая интеллектуальная модель Anthropic на сегодняшний день и первая модель Claude, предлагающая расширенное мышление - способность решать сложные задачи с помощью тщательного, пошагового рассуждения.
Anthropic - первая AI-лаборатория, представившая единую модель, где пользователи могут балансировать между скоростью и качеством, выбирая между стандартным мышлением для мгновенных ответов или расширенным мышлением для углубленных рассуждений.
Claude 3.7 Sonnet представляет собой передовое решение для программирования и обеспечивает прогресс в использовании компьютера, агентных возможностях, комплексном мышлении и генерации контента. Благодаря передовой производительности и улучшенному контролю над скоростью, Claude 3.7 Sonnet является идеальным выбором для работы AI-агентов, особенно тех, что взаимодействуют с клиентами, и сложных AI-процессов.
Поддерживаемые варианты использования: RAG или поиск и извлечение информации из обширных баз знаний, рекомендации продуктов, прогнозирование, таргетированный маркетинг, генерация кода, контроль качества, извлечение текста из изображений, агентное использование компьютера, генерация контента
>>1067193 >где пользователи могут балансировать между скоростью и качеством перевожу с копрокрыского >мы вообще не ебём как автоматически настраивать пользователям сколько им нужно интеллекта
Новый Грок 3 сует Маска как великого мыслителя в выдачу результатов, ставя его рядом с Аристотелем. Даже в промптах, в которых про Маска ничего не упомяналось.
>>1067379 Тащем-то пока объеб гоев идет, вангую стоимость такого мувика упадет до 200 баксов в течении нескольких лет. Себестоимость то нейронку гонять довольно низкая. Еще если китайцы бесплатный вариант подгонят, так и вообще.
>>1067379 Вот цены средние на генерацию 1 минуты видео мясными мешками. По качеству того видео выше это не нижний тиер с фрилансерами, а где то ближе к студийному. Так что примерно 8к баксов за одну минуту рендера мясными мешками. Там же 5 минут видос, вышло бы где-то 40к-80к.
>>1066775 >6к грина чтобы ждать ответ полдня? Серьезно? Оно же охренеть какое медленное будет. Проще эти бабки дипсику закинуть и через API юзать, на полжизни хватит и на электричестве сэкономить можно. Ты не понимаешь сути пердолинга. Им результат вообще не важен.
>>1066633 >>1066971 Просто проследуй нахуй, клоун красноглазый. Алсо про этот гомфиг первая ссылка в гугле, чем ты тут перемогать пытаешься, ебанат?
>>1066991 Если ощутимого прогресса не будет, то через год. Схуяли ты думаешь, что 2-3 года будут финансировать бесмысленную хуйню? В этом году въебали аж 500 лярдов, если результат будет нулевой, все лопнет.
Цена использования такая же, как у Sonnet 3.5 —не ожидал, думал, побольше сделают.
Указание бюджета на генерацию работает иначе, чем у OpenAI: можно прямо указать, сколько токенов хотите оплатить (`"budget_tokens": 16000`).
На 4 картинке пример масштабирования метрик от бюджета на рассуждения.
В общем, наконец-то и Claude научился рассуждать. В отличие от конкурентов, за всё отвечает одна модель — нету никакого отдельного reasoning тюна. Из плюсов такого подхода — количество размышлений регулируется через "бюджет на размышления", что позволяет точнее контроллировать цену/качество ответа.
Но главное преимущество этого подхода — с extended thinking из коробки работают ВСЕ фичи Claude, от поддержки PDF до Computer Use. У тех же OpenAI до сих пор куча странных ограничений по этому поводу.
Из приятных мелочей — Anthropic дают доступ к размышлениям модели, даже через API. Приятно что попытка OpenAI сделать чёрный ящик из reasoning моделей провалилась.
Новая версия уже доступна бесплатно для всех пользователей, но Extended Thinking доступен лишь платным подписчикам.
>>1067860 > количество размышлений регулируется через "бюджет на размышления", что позволяет точнее контроллировать цену/качество ответа. Как вытрясти из гоев больше денег на то, что в дипсике бесплатно.
Графики кстати тоже подозрительные и на развод гоев похожи, ждем нормальных подтверждений. Юзеры пока пишут отличия минимальные от 3.5.
>>1067860 А вот и нормальные результаты подъехали. Ваша клауде 3.7 параша 65 всего набрала, на уровне старой модели gemini, ниже дипсика. Выше же мурзилки, где она всех разъебывает, разрабы явно рисовали в фотошопе.
>>1067860 1 пик. не может быть. Не верю. о3 супер охуенен в кодинге. Судя по графику клод блядь может сразу нахуй чуть ли не игру целиком с нуля ебануть, но не верю.
Пузырь ИИ лопнет. Microsoft выходит из проектов ИИ.
По данным TD Cowen, корпорация Microsoft аннулировала некоторые договоры аренды мощностей центров обработки данных в США, что вызвало более широкие опасения относительно того, обеспечивает ли она больше вычислительных мощностей ИИ, чем ей необходимо в долгосрочной перспективе.
Крупнейший спонсор OpenAI аннулировал договоры аренды в США общей мощностью «пару сотен мегаватт» — что эквивалентно примерно двум центрам обработки данных — расторгнув соглашения по крайней мере с парой частных операторов, написала американская брокерская компания в пятницу, сославшись на «проверки каналов» или запросы поставщикам цепочки поставок. TD Cowen заявила, что ее проверки также свидетельствуют о том, что Microsoft отказалась от преобразования так называемых заявлений о квалификации, соглашений, которые обычно приводят к формальным договорам аренды.
В своем заявлении в понедельник Microsoft повторила свои целевые расходы на финансовый год, заканчивающийся в июне, но отказалась комментировать заметку TD Cowen.
Неясно, почему именно Microsoft может аннулировать некоторые договоры аренды.
Технологический гигант также входит в число крупнейших владельцев и операторов центров обработки данных и тратит миллиарды долларов на собственные мощности. TD Cowen отдельно предположил, что Microsoft может перераспределять часть этих внутренних инвестиций в США из-за рубежа.
«Хотя мы еще не получили достаточного уровня цвета с помощью наших проверок каналов, который мы хотели бы получить, чтобы понять, почему это происходит, наша первоначальная реакция заключается в том, что это связано с потенциальным переизбытком предложения у Microsoft», — написали аналитики TD Cowen Майкл Элиас, Купер Беланжер и Грегори Уильямс.
Акции Microsoft практически не изменились на премаркете в понедельник.
Потенциальный отзыв аренды со стороны Microsoft поднимает более общие вопросы о том, становится ли компания — один из лидеров среди крупных технологических компаний в области ИИ — более осторожной в отношении перспектив общего спроса.
Критики постоянно указывают на нехватку практических, реальных приложений для ИИ, даже несмотря на то, что Microsoft, Meta Platforms Inc., Alphabet Inc. и Amazon.com Inc. пообещали потратить миллиарды на центры обработки данных, необходимые для обучения, разработки и размещения служб ИИ.
Руководители Microsoft преуменьшают обеспокоенность по поводу избыточных мощностей ИИ. Компания тратит больше, чем когда-либо в своей истории, расходы в основном идут на чипы и центры обработки данных, необходимые для питания энергоемких служб ИИ.
>>1068176 Это разрабы клода нафантазировали графики. Вон те >>1068163 реальные, там сразу все на места встает, o3-mini-high на 82, клод 3.7 посасывает внизу с 67.
Яндекс релизнул YandexGPT 5 и снова вернулся к выкладке в опенсорс. Модель доступна в двух версиях:
⭐ Lite – pretrain-версия на 8B параметров с длиной контекста 32k токенов, опубликована на Hugging Face без финального этапа обучения, этических фильтров и алаймента. Претрейн проходил в два этапа: на первом этапе модель инициализировалась случайными весами и обучалась преимущественно на русскоязычных и англоязычных текстах общим объёмом 15T токенов. На втором этапе, который назвали Powerup, модель обучалась на высококачественных данных объёмом 320B токенов. В своей категории YandexGPT 5 Lite достигает паритета с мировыми SOTA по ряду ключевых бенчмарков для pretrain-моделей, а по многим другим опережает их.
⭐ Pro – старшая модель, для которой компания впервые применила метод гибридного обучения, добавив в стандартный цикл базовые настройки открытой модели Qwen. За счёт внедрений удалось сократить затраты на обучение и увеличить его скорость до 20 раз.
Для обучения YandexGPT 5 поколения в компании улучшили обучающий датасет, внедрили методы обучения с подкреплением (DPO и PPO), собственную модификацию LogDPO, которая помогает избежать эффекта «разучивания» – ситуации, когда модель забывает уже выученные знания.
>>1069083 >яндекс догнал пендосов есть ощущение что дело не в том что яндекс гении, а в том что пендосы продают чатбота за миллиарды долларов наебывая инвесторов
Apple объявила масштабные планы по инвестициям в американскую экономику — 500 млрд долларов за следующие четыре года и 20 тысяч новых рабочих мест.
В планах компании — открытие академии в Мичигане для подготовки производственных кадров и завода в Хьюстоне для производства серверов под нужды AI-систем Apple. Также компания удвоит до 10 млрд долларов фонд поддержки американских производителей, который уже финансирует, например, новый завод TSMC в Аризоне.
Если помните, Apple уже делала такие заявления и даже торжественно переносила производство Mac Pro (модели в форме цилиндра, которую остроумные критики назвали мусорным ведром) на американский завод. Решить проблему острой зависимости компании от китайских производственных мощностей это не особо помогло.
Более тысячи музыкантов, включая Кейт Буш, Деймона Албарна и Энни Леннокс, выпустили "молчаливый" альбом в знак протеста против планов британского правительства разрешить AI-компаниям использовать защищенные авторским правом произведения без разрешения.
Альбом "Is This What We Want?" состоит из 12 записей тишины в студиях и концертных залах. Он символизирует то, что может произойти с доходами артистов, если правительство реализует свои планы. К протесту присоединились Пол Маккартни, Элтон Джон, Бьорн Ульвеус из ABBA, актриса Джулианна Мур и другие знаменитости.
Правительство Великобритании предлагает ввести исключение в авторском праве, позволяющее AI-компаниям обучать свои алгоритмы на работах творческих профессионалов. Хотя предусмотрена возможность отказа от использования, критики называют ее несправедливой и неработоспособной.
Прибыль от альбома, доступного на стриминговых сервисах, будет передана благотворительной организации Help Musicians. В записи участвовали Тори Амос, Билли Оушен, The Clash, композитор Ханс Циммер и многие другие. Названия треков складываются в послание: "Британское правительство не должно легализовать кражу музыки в интересах AI-компаний".
Как отметил Стивен Фрай, один из подписантов открытого письма против инициативы: "Нельзя способствовать росту в саду, позволяя вредителям пожирать плоды и цветы, и нельзя способствовать росту экономики, позволяя ИИ пожирать плоды труда наших творцов".
>>1069042 Да причем тут нахуй каргокульт, когда в основе модели опенсорсный жпт Generative Pretrained Transformer. Ты дурак штоле? Оно же не называется sosuualtmanayandex
Alibaba Wan 2.1 - новая SOTA опенсорс видео модель, которая близко подобралась по качеству к VEO2. ЕЩЁ РАЗ - ОПЕНСОРС ПО КАЧЕСТВУ ПОЧТИ КАК VEO2!!!!!!!!!!
Скорее всего это та самая загадочная модель, которая уже месяц доступна в Qwen Chat. На лидерборде VBench она занимает первое место, но там нет нескольких сильных конкурентов, вроде Veo 2 от гугла. Больше бенчей никаких нет, так что ждём полноценного техрепорта и тем временем вайбчекаем модель по генерациям). По ним, например, видно что модель очень хорошо генерирует текст, как на английском, так и на китайском, с чем другие модели справляются куда хуже.
Идёт в двух размерах — 1.3B и 14B и в нескольких разных вариантах для разных разрешений (поддерживаются 480p и 720p). Маленькой 1.3B модели нужно всего 8,2 гигабайта VRAM для запуска, а на генерацию видео уходит всего 4 минуты на 4090.
Большая моделька потребляет заметно больше — вплоть до 77 гигабайт. Но модели совсем не оптимизированные (замеры по памяти делали с fp32 моделями), так что есть много простора для оптимизации. Посмотрите на тот же Hunyuan, который при ~таком же количестве параметров неплохо запускается на консьюмерских видяхах. Умельцы за пару недель ещё оптимизируют эти модели, чтобы запускалось на каждом холодильнике.
Моделька (https://t.me/ai_newz/3697) умеет во всё, что нужно: txt2img, img2video и даже end frame имеется! Кроме того, Wan может в обработку видео и саунд-эффекты. У нас есть structure maintenance — выглядит как depth control net или схожий по принципу, сохраняет общие детали. Posture maintenance — pose controlnet, а также инпейнтинг, аутпейнтинг и multi-image reference — те самые ingredients или elements из Pika и Kling. Это вообще законно?
Что касается качества, видно, что в приоритет ставили производительность. Картинка, судя по черипикам, имеет очень хороший мувмент, хоть и в слоумо, (гляньте на котов-боксёров) но при этом видны небольшие артефакты примерно везде, где есть хоть немного визуального шума. Если приглядеться, видео в немного моргает, как будто подмешивают слишком много нойза. Ну и разрешение, конечно, далеко от 4k. Тем не менее это настоящий "SD 1.5 момент" для мира опенсорс видеомоделей
>>1069245 >Большая моделька потребляет заметно больше — вплоть до 77 гигабайт. На видеокартах выходит не идет? Если только на H100 какой-нибудь. Или там можно шарить с обычной памятью? Тогда был бы вин.
Еще неплохо бы сравнения маленькая моделька против большой, насколько большая разница.
>>1069288 То есть 480 можно генерировать с видеокартой в 8 гигов? Так то неплохо вроде. И скорость соответствует хьюнаню, чуть помедленнее, но если качество будет лучше, порнушечка с кончающими членами в буряточек, тогда норм. Ждем.
>>1069280 Такое можно и в клинге с виду делать, если виду даст генерацию на виду 2.0 текст2видео (сейчас её нет) в 720 минимум. Вообще-то я для своего клипа такое же наебалово использовал, да и это не секрет, ловкость рук и никакого обмана: 1)Сильный промпт на стиль. Тут миядзаки какой-нибудь. 2) Сильный промпт и черепикинг по цветам, чтоб создать впечатление однородности, конкретно в лисе возможно еще пост.обработка сепией сверху ебанули. 3) На скрине - тридемомент, то есть видео 100% состоит из кучи роллов, раз он такой лажевый момент включил. Я сильно не заморачиваясь на виду сделал клипп с небольшим количеством повторов, на 2 минуты 30 секунд у меня ушло 77 фрагментов. которые я сохранил. Роллил не помню сколько может х3. 4) Ну и в главных героях тут простой объект - ёбаная лиса, у которой в одном стиле не так уж много вариативности.
Этого, конечно, достаточно чтоб лабух типа тебя восхитился, но реально выполнимо почти в любом видеогенераторе последнего поколения, включая фритриальные.
Пусть теперь гугл предъявит китайцам за то, что те тренируют модели на их видосах, как предъявили Соре. Западу срочно надо отменять любые ограничения на контенте для обучения моделей, иначе пизда им
>>1069305 У него 7к генераций, финальных фрагментов 1700, потом мощная склейка всего этого, делал вроде пару месяцев. Вангую самая большая сложность сделать, чтобы был слаженный сюжет в одном стиле, а не набор отдельных видосов. Там более-менее удалось, ощущение что это один мульт есть.
OpenAI раздали доступ к DeepResearch людям с подписками дешевле, чем за $200. Будет по 10 запросов в месяц, ну так, попробовать пощупать.
Pro-Бояре получают ещё чуть-чуть сверху, вместо 100 теперь 120 запросов.
Кроме этого, пара улучшений: —система может вставлять картинки, на которые натыкалась во время рисерча, в ответ —работа с файлами и их упоминание вами тоже прокачалась (если вдруг вы хотите отгрузить PDF-ку или эксель-файл в качестве контекста вашего запроса)
Первый видос - это Wan 2.1 Второй - Veo2, которая является топовой проприетарной моделью. Третий - Сора.
У гуглу есть вопросы к ценообразованию, даже несмотря на то, что за пару стоимость генераций VEO-2 упала с $4 до $1.25. Это мы ещё опустим, что у Wan нет цензуры в опенсорсной версии.
Промпт который использовался для первых двух видосов: "A cat is doing an acrobatic dive into a swimming pool at the olympics, from a 10m high diving board, flips and spins"
Быть может VEO-2 штормит из-за невозможности ситуации, в сценах с реализмом он хорош.
Четвёртый видос это спагетти-бенчмарк, Wan его уверенно проходит
>>1069944 Тащем-то по качеству все примерно равны, но если китайскую доведут до консумерского уровня видеокарт и там не будет цензуры, то по итогам победит китай.
>>1069629 >Будет по 10 запросов в месяц, ну так, попробовать пощупать. если гуглить хуйню уровня где купить сухарики по скидке, то да даже и 1000 запросов не хватит оно на то и deep research чтобы исследовать нужную тебе тему с нужной тебе информацией
AI пузырь начинает сдуваться, скептики были правы что это просто генератор текста и улучшенный поисковик, сортировщик, не более, единственное чем он полезен это генерация хентай пикч, AI очередной мусор уровня бигдаты, облачных хранилищ, криптовалюты Игрушка за миллиарды долларов не смогла поработить мир лол
ну хули, большие человечки думали будут монополизировать и сосать денюжки, но пришли китайцы и творцы и слили всё в опенсорс.... нивышла деняк поднять, зато хуанг наконе, как во время майнинга, а ИИ сдуется, будет дальше геймеров доить, остальные будут так же заниматься своими делами
а бредогенератор я еще тыкал в середине начала нулевых, забавная фигня была
Запрос: «Сделай приложение-копию Tinder. Все данные выдуманные. Язык — Flutter». Claude справился с первой попытки. Источник: shohei Claude понадобилось пять подсказок, чтобы сделать игру «Змейка» для Apple Watch. Чем чаще сердцебиение, тем быстрее движется змейка. Источник: Ammaar Claude создал 26 файлов кода для сайта. «Лучшая в мире модель для написания кода. Это всё равно что получить разработчика мирового уровня с исключительным вкусом», — написал пользователь. Источник: Mckay Wrigley В другом примере Claude смоделировал падение метеорита на Землю 12 тысяч лет назад.
>>1070640 Claude попросили создать HTML-файл для анимированных карточек погоды на CSS и JavaScript. Источник: Delusionals Пользователь попросил модели написать код для «чего-то напоминающего панель управления звездолётом в далёком будущем». Результат Claude Sonnet 3.7. Источник: Ethan Mollick
>>1070640 OMG Claude Sonnet 3.7 is insane. I got this stunning 3D city with one shot. Look at the shadows and the way the day transitions. This is just awesome. Prompt: Create a 3D city scene using Three.js that features a bustling urban environment with skyscrapers, apartment buildings, and smaller shops lining the streets. Incorporate roads with moving cars, traffic lights, and pedestrian crossings to bring the city to life. Add pedestrians walking on sidewalks and crossing the streets to enhance realism. Include street elements such as lampposts, benches, and trees for a more immersive experience. Utilize dynamic lighting to simulate day and night cycles, and implement basic camera controls to allow users to explore the vibrant cityscape from different perspectives.
Хз пацаны. Чет макакам реально на мороз готовиться похоже надо.
Осталось решить вопрос с контекстным окном, но у клода вроде как дают 128к токенов в контексте. Это очень много. Here’s how to build a Slack clone with Claude 3.7 Sonnet and Cursor Agent in v0.46.
Perfect for anyone wanting to pick up AI coding tools.
Learn how to build an app 100% from scratch with the newest AI coding workflows.
>>1070665 Весь вопрос в контексте сколько может обработать нейронка в одном запросе или в чате. Это вопрос времени когда будет в одном запросе по 1млн токенов. Еще год дай и будет такое. Связка o3+grok+клод просто рвет даже мидлов в некоторыз задач сейчас уже. Джунов точно.
>>1070699 Да хоть лида заменят, где надежность, чтобы я мог задеплоить эту хуйню дать пару задач и он их сделает не обосравшись и не положив самого себя?
>>1070715 Ты жопой читаешь? Мидла заменит легко уже сейчас. Лиду придется руками все делать, а не хуи пинать на дваче. Вся проблема в контексном окне сколько строк кода можно обработать сейчас в одном запросе. Грок3 справляется с 10к строками кода без галлюцинаций, клод 3.7 еще не тестил. Лежат сервера весь день у них на 3.7 модель
OpenAI начинает прогрев гоев перед выпуском GPT-4.5: некоторым Pro-пользователям обновленного приложения на Android «случайно» всплыло уведомление с приглашением попробовать модель.
Попробуйте предварительную исследовательскую версию GPT-4.5 — пользователи Pro теперь имеют доступ к нашей новейшей, самой большой модели.
Все указывает на то, что завтра модель действительно выйдет в виде превью для pro-юзеров, а на остальных покатят позже. Некоторые пользователи уже получили доступ, пока что по первому отзыву на основе пары примеров в коде лидирует Sonnet 3.7, а "GPT-4.5 шикарна в креативных задачах". Но это ничего не говорит, так как несколько тестов нерепрезентативны, ждём бенчей
>>1070640 Забавно. Я сегодня у чатгпт спросил - найди ка мне ИК спектры соединений, она мне сказала - иди руками работай это невозможно на данном этапе развития науки и техники.
>>1071081 Ну это совсем говно, я ещё до нейросеток поинтересней проекты видел. (работающие руками не в безопасности, конечно, но в робототехнике прогресс на порядки медленней будет идти чем в сфере дегенеративных моделей)
Аноны, если роботы всех заменят и начнётся массовая безработица, то кто же будет потреблять эти товары, произведенные роботами и нейросетями? Какая-то тут нестыковка
>>1071081 Прям так и вижу, как на конвейере меняют азиата работающего за 40 долларов в месяц на робота за 20 000 долларов. Азиат сломался - выкинул, взял нового за забором. Робот сломался - зови спеца которому плати 100 долларов в час. Каждый раз смешно с этого прогресса. >>1071099 Никто никого не заменит, уаня, не переживай. Ты так же будешь работать 17 000 рублей в месяц с инфляцией 800 % за 30 лет. Роботы просто будут разносить коктейли в барах для тех, кто имеет с тебя маржу.
>>1070667 >Хз пацаны. Чет макакам реально на мороз готовиться похоже надо.
Это было очевидно ещё в конце 2022. Всех предупреждали. В том числе лично я.
Дальше будет хуже.
>>1071081 >Те, кто делает что-то руками, в безопасности, говорили они.
Не говорили. Говорили что их заменят самыми последними. И чем сложнее мелкая моторика рук - тем дольше будут заменять.
Фрезеровщиков и всяких сантехников будут заменять самыми последними. Но заменят всё равно, безопасности нет нигде.
>>1071092 >(работающие руками не в безопасности, конечно, но в робототехнике прогресс на порядки медленней будет идти чем в сфере дегенеративных моделей)
Опять не так. Основная проблема робототехники - написание кода для движения роботов.
Угадай кто теперь пишет код вместо кожаных мешков. Вообще взрыв последних пары лет в робототехнике это полностью заслуга нейросетей.
Экспонента идёт везде, в каждой области. Это конец.
Но на мир надо смотреть позитивно. Поэтому скажу, что всем будет очень интересно.
>>1071099 >Аноны, если роботы всех заменят и начнётся массовая безработица, то кто же будет потреблять эти товары, произведенные роботами и нейросетями? Какая-то тут нестыковка
Тебе кто-то обещал, что ты вообще что-то будешь потреблять в чужом мире?
Зачем вообще богоподобным сверхсуществам производить товары для каких-то обезьян?
По-хорошему надо пиздовать подальше в деревню в Сибири, на полное самообеспечение. На несколько лет.
А там видно будет, как вся ситуация с AGI-ASI развернётся.
>>1071190 >добывают кобальт голыми руками за то бля давай продолжу твои маняфантазии >негры плодятся в экспоненциальной прогрессии, но работают даже свиноматки и рожают прямо во время работы по 10 личинок >негры голыми руками хуярят грунт камень кобальт уголь уран нефть >при смерти выкидывают на съедение подрастающим детям которые уже хуярят в шахтах >ООН скрывают истинное число рабов, оно перевалило уже давно за 10ккк
>>1071195 Русские добывают нефть и газ прямо зубами, вгрызаясь в сибирскую мерзлоту, пока медведи охраняют их от белок-шпионов НАТО.
Водка течет по трубам вместо воды, и даже бабки на лавочках варят самогон на продажу, попутно воспитывая медвежат для работы в шахтах.
Мужики в ушанках голыми руками выдирают уголь из земли, а потом используют его, чтобы топить свои трактора, на которых ездят на работу через тайгу.
Дети рождаются уже с топором в руках, а в три года их отправляют рубить лес, потому что "тайга сама себя не вырубит".
ООН скрывает, что половина России — это подземные города, где миллиарды русских в секретных бункерах пьют чай из самоваров и планируют захват Луны.
Русские нейросети пишут код прямо на берестяных грамотах, обучаясь на данных, вырезанных топором в сибирских соснах.
Их тренируют на миллионах часов прослушивания "Владимирского централа" и анализа матерных частушек, чтобы они могли общаться только на чистом русском мате.
Энергию для серверов берут из вечных двигателей, работающих на перегарe после вчерашнего застолья, а охлаждают их в прорубях Байкала.
Говорят, главная нейросеть "Распутин-9000" сама себя собрала из старых калькуляторов "Электроника" и теперь предсказывает погоду, урожай картошки и курс рубля с точностью 146%.
ООН скрывает, что эти нейросети уже взломали все спутники и заставляют их транслировать "Иронию судьбы" на Марс, чтобы подготовить колонизацию.
Русские либералы добывают свободу слова голыми руками, выкапывая её из-под сугробов репрессий в тайге, пока их не заметят вездесущие бабки с семечками.
Они плодятся в кофейнях Москвы, питаясь исключительно авокадо-тостами и латте на овсяном молоке, а вместо детей рожают петиции на Change.org по 10 штук в день.
Собираются тайно в подвалах, где вместо угля и нефти добывают лайки в твиттере и ретвиты от западных ботов, голыми руками стуча по клавиатурам старых "Яндекс.Станций".
При смерти их не едят, а торжественно сжигают на костре из старых газет "Эхо Москвы", чтобы их прах улетел в Европу на крыльях мечты о безвизе.
ООН скрывает, что их число давно перевалило за миллиард, но все они прячутся под видом хипстеров и фрилансеров, планируя захват Кремля через TikTok.
Как же всем похуй. Почему люди не устраивают массовые протесты против ИИ? Они не знают про нейронки? Они уверены, что их не заменят? Мечтают о БОДе? Мы будем все ебашить на стройках и шахтах 12/7 за миску рис, как буржуазия и мечтает. Как люди могут не понимать этого? Кабанчики люто ненавидят средний класс и мечтают его заменить очень сильно уже много лет, люди ведь должны были понять это ещё очень давно.
Как же всем похуй. Почему люди не устраивают массовые протесты против ИИ? Они не знают про нейронки? Они уверены, что их не заменят? Мечтают о БОДе? Мы будем все ебашить на стройках и шахтах 12/7 за миску рис, как буржуазия и мечтает. Как люди могут не понимать этого? Кабанчики люто ненавидят средний класс и мечтают его заменить очень сильно уже много лет, люди ведь должны были понять это ещё очень давно.
>>1071245 Ну допустим 10 развитых стран запретят развитие ИИ, а одна не запретит, тогда все поймут, что она скоро выйдет в лидеры и вытеснит всех с рынка, другие страны просто отстанут и станут неконкурентными в геополитике. Понимая эту простую истину, никто даже не пытается у себя затормозить развитие ИИ, ровно наоборот
>>1071246 >>1071264 Блядь долбоебы ебаные, мы уперлсиь в хуй. Без ебанутых систем анализа огромных данных мы через 10 лет забудем уже что сегодня наоткрывали и прогресс встанет совсем. Нам нужен ИИ чтобы ускориться в понимании реальности и мира. Нам не нужен блядь ИИ контролирующий все, но как всезнающий инструмент обязателен. А то что кабанчики будут его в своих интересах юзать, так вы восставайте против кабанчиков этих ебаных, а не против ее, долбоебы. Вы блядь путаете проблему. ИИ это инструмент. Вы сами же блядь пиште литерали: >Кабанчики люто ненавидят средний класс >Почему люди не устраивают массовые протесты против ИИ? Противоречия в собственных словах не видите? Вам совсем башку промыли оруэлом? Выступайте за открытость и доступность ИИ каждому. А не против ИИ вообще.
>>1071282 >Без ебанутых систем анализа огромных данных мы через 10 лет забудем уже что сегодня наоткрывали и прогресс встанет совсем.
Этого двачую. Напомню, что большинство научных работ не читает вообще никто кроме авторов работы. Потому что только по одной биологии ежедневно выходят тысячи пейперов, 90+% имеют 0 прочтений, а там могут скрываться очень ценные знания, которые при сопоставлении со знаниями из других пейперов могут дать новые открытия. Но никто не способен это всё прочитать. Но ИИ может, на него одна надежда.
>>1071466 >Пишут, что для самого жира 720р и 14B нужно 40 гиг врам (ебало владельцев 5090 имаджинировали?). Китаезы, продающие переделанные 3090 с 48 гигами памяти на аликах внезапно оказались в профите. А так ждем 6000ю серию карт, может там куртка расщедрится на 40 гигов.
>>1071195 >>ООН скрывают истинное число рабов У тебя бюджетников на выборы загоняют, уаня, чтобы они голосовали за кого надо. Их же загоняют на вакцинацию под угрозой лишить единственного заработка в их городе с прописОЧКОЙ. Не тебе из твоей тоталитарной помойки вообще о рабстве заикаться.
>>1071521 Хочешь поговорить о призывных воскресающих ванях, которые дошли до хуева не только лишь все 22-м году, потому что потери засекречены? А если в цифрах, то биоробот стоит десяти а может и стократно дешевле всех поделий, которые существуют на рынке. И причина там только одна - энерговооруженность поделия. И да - вот такая ситуация невозможна >>1071222, потому что конкретно роботы с видео отлетают если не от одной ББ калаша, то от калибра 12,7 только в путь, можно даже в ряды ставить. Как в той пасте про что такой айфон этот ваш за две тысячи долларов. Они выстрел и АК и нет айфона.
>>1071282 >Нам нужен ИИ чтобы ускориться в понимании реальности и мира. Совсем уже ебанулись со своим ИИ. В них уже даже запихали все, что есть, они как были на уровне табуретки так и остались. А им все данных мало. У тебя не данных мало. У тебя секретность во все поля. И наказание вплоть до ссылки навсегда за её нарушение.
>>1071282 >А то что кабанчики будут его в своих интересах юзать, так вы восставайте против кабанчиков этих ебаных, а не против ее, долбоебы Как ты это себе представляешь вообще? Протестующих просто захуярят управляемые ИИ военные дроны. Надо или устраивать протесты прямо сейчас, или смириться со своей участью. Потом будет поздно >Выступайте за открытость и доступность ИИ каждому ИИ тебе наколдует поесть? Среднему человеку этот ваш ИИ нахуй не нужен(если не учитывать всякую хуету типа генераторов порнухи), он нужен кабанчикам, чтобы уничтожить средний класс
Phi-4-Multimodal и Phi-4-Mini уже лежат в опенсорсе под лицензией MIT и интегрированы в Transformers.
Мультимодальность включает текст, аудио и видео. Ну куче мультимодальных бенчмарков модель превосходит GPT-4o, Gemini-2.0 Flash и 1.5 Pro. Это первая открытая модель такого уровня поднимания речи и OCR.
В привычных математических и кодинговых задачах тоже неплохо: mini с ризонингом соответствует o1-mini и дистилляциям R1.
Внутри 2 адаптера для видео и аудио + лоры для модальностей в основной модели, чтобы не менять ее собственные веса. Обучали в три внушительных этапа:
1. претрейн на тексте + файнтюн на тексте 2. мультимодальный трейн на vision, audio и vision-speech 3. ризонинг трейн на CoT + обучение с подкреплением с DPO
>>1071595 Вот и Майки подключились к ебке. Кто там остался еще? Амазон и Эппл? Что-то Безос ничего не выпускает, он за Маском же все копирует, пора и ему миллиарды начать вливать.
>>1071282 АИ это наеб, микрософт уже послал нахуй опен аи, они не хотят тратить деньги в пустоту, аи просто инструмент который переоценили, щас пузырь начнут сдувать
ChatGPT сейчас глупее, чем в 2022 году. OpenAI выжимает кровь из репы. LLM - это тупик, и с момента публикации книги «Внимание - это все, что вам нужно» не произошло никаких реальных прорывов в развитии. Это все маркетинг и технологический пузырь, не имеющий ни сути, ни будущего
Звёзды выстраиваются в правильном порядке, и анонс GPT-4.5 aka Orion состоится либо сегодня (80%), либо завтра (20%, вдруг что-то пойдёт не так в последний момент):
—TheInformation сообщают, что сотрудники OpenAI были уведомлены о том, что анонс состоится «на этой неделе» —В коде сайта OpenAI уже указано, что «исследовательское превью» будет доступно подписчикам Pro тира за $200. Про Plus пока никаких новостей, как и про доступ по API.
—Напомню, что это не рассуждающая модель (хоть она почти наверняка обучалась на цепочках от o1 или даже o3), и что качество в reasoning-heavy задачах вряд ли будет выше, чем у o3 (может даже o1, почти наверняка хуже o1 pro)
—Вкратце какие улучшения ожидаются: мультимодальность (работа с документами, картинками, видео), качество на длинных контекстах, знания, представленные в интернете в малом объеме, уменьшение галлюцинаций. Скорее всего, agentic-навыки тоже улучшатся, но не очевидно, что смогут перебить o3.
—Я ожидаю, что модель точно будет лучше Grok 3 повально фактически во всём. Сравнение с Gemini 2.0 Pro сложнее, так как Google не даёт API -> почти нет бенчмарков, и сам я моделью не пользовался. И мне не кажется, что GPT-4.5 будет дешевле 4o.
—Главная проблема в релизах Grok 3 и Gemini 2.0 Pro в том, что команды никак не смогли донести новую ценность от новых моделей; посмотрим, получится ли это у OpenAI — даже сырая цифра, что они сделали ПЯТЬ новых бенчмарков за последние полгода, говорит о том, что приросты как минимум на них будут показываться.
—Вполне возможно, что покажут новые/закрытые бенчмарки, собранные под специальные навыки; это —нормально, ожидаемо, и не должно вызывать реакции «ха-ха померились на чём-то непонятном». —Считаю, что самой интересной моделью года будет thinking-модель (условно o4) поверх этого Orion.
Готовимся смотреть анонс GPT-4.5 в 20:00 по мск (обычно во столько делают релизы, край — 21:00).
>>1071566 >он нужен кабанчикам, чтобы уничтожить средний класс Хуита. Большинство работ нахуй не нужны по сути, это инструмент пронизывания общества буллшит-джобзами, которые перераспределяют еду гойслопжижу-свинохрючево и другие блага среди населения сообразно его лояльности системе. Если кабаны настолько несостоятельные дауны, что не могут обеспечить всех рабочими местами - эту нишу подхватят криминал и иностранные разведки.
>>1072047 >Если кабаны настолько несостоятельные дауны, что не могут обеспечить всех рабочими местами - эту нишу подхватят криминал и иностранные разведки. Что в РФ и происходит уже 30+ лет.
>>1072317 Там нет инфы. Пробежался глазами, это отчет о том насколько "безопасна" модель и можно ли ее джейлбрейнуть чтобы создать биологическое оружие и все такое
>>1072329 вообще хуй знает у них такое преимущество в виде того что они первые заняли нишу популяризации ИИ, но въебывают огромное количество ресурсов на какую-то бесполезную и ненадежную хуйню в виде LLM, соры, генераторов картинок, searchgpt, захайпленного RAG и ещё мультимодальность которая нихуя не мультимодальность
это уже просто похоже на наеб и отмыв денег чем какой-то прогресс
>>1072345 Так и есть, только Дарио базовичок, который карканул на имидж/видео генерации, прекрасно понимая, что отношения к ллм это не имеет никакого. Единственная идейная контора, которая делает то во что реально верит. Жаль пухляка...
Еще раз: в сравнении с o1 на математике и кодинге модель хуже (неудивительно, это другой подход). Но нельзя бесконечно скейлить только ризонинг, и, с другой стороны, это самая большая и самая накаченная знаниями о мире модель. Она поглотила МНОГО текста и лучше подходит для простых нетехнических задач, креатива, написания текстов, социального взаимодействия и просто разговоров. То есть, это лучшая модель для НЕайти обывателя.
Отдельно отмечают глубокий элаймент и то, что модель стала безопаснее и этичнее. Ее долго тюнили на предпочтения, и ответы получаются емкие и естественные. Кроме того, в GPT-4.5 сократили процент галлюцинаций. Теперь галлюцинации более редки, чем у рассуждающей o1
Пока доступно только Pro, в течение следующей недели добавят в плюс и тим. В API завезут сегодня, цены космические — 75 долларов за миллион токенов инпута и 150 долларов за миллион токенов аутпута.
—агентские навыки (использование инструментов) тоже уступает рассуждающим моделям, потому на этих бенчмарках оценки хоть и стабильно выше (иногда значимо), чем у 4o, но не такие приятные —не так много разных оценок, как я ожидал, на мультимодальность, длинный контекст и разные языки (второго вообще нет)
Теперь чуть подробней про некоторые пункты:
Первое —надёжность и уменьшение галлюцинаций. Тут даже ризонеров порвали. Некоторые именитые айтишники писали, что ответы o1 pro они почти не перепроверяют, потому что ошибок нет. Так вот ризонер на Orion (4.5) видимо ошибаться будет ооочень редко. Если честно, только одного этого (уменьшение галлюнов + надёжность) может хватить, чтобы AI начал входить в бизнес-процессы куда плотнее. Жаль, что нет сравнений с моделями конкурентов, большое упущение (это вообще ко всей статье применимо).
Второе — количество знаний. В доменах вроде ядерной физики моделька идёт нос к носу с ризонерами. Здорово, но хотелось куда больше замеров на то, насколько хорошо именно редкие знания в модели представлены. Картинки 2 и 3 к вашим услугам.
Третье —владение языком. Уже давно проводят бенчмарки на дебаты, переубеждение или вымогание (когда часть денег нужно пожертвовать). Модель тут оооочень хороша, владение языком везде выделяется. Картинки 4-5.
Четвёртое —всё же немного про мультимодальность напишу, показали один тест, связанный с медициной, тоже на уровне ризонеров. С другой стороны никаких других бенчмарков на картинки или видео, наверное если бы рвало —включили бы. Запишем карандашом, поставим звёздочку.
Теперь ООООЧень краткое объяснение того, почему ризонеры так сильно прокачивают модели, и почему они выигрывают «модели следующего поколения», обученные на в 10-15-20 раз большем количестве мощностей:
—увеличение вычислений во время инференса (предсказания) в большинстве своём сопоставимо с увеличением мощностей во время тренировки, однако связь не 1-к-1. Какая она точно —мы не знаем (я не знаю), но например в одной из работ по анализу нейросетей для настольных игр каждые x10 тренировочных мощностей были эквиваленты увеличению мощностей на инференс x15 —то есть можно тренировать и модель меньше, и сама тренировка короче, но использовать много "рассуждений" (инференса), и тогда она будет круче —чем лучше базовая модель, тем очевидно более эффективно расходуются мощности на инференсе —то есть условная o3, построенная на GPT-4o, может генерировать цепочки рассуждений в 50 раз длиннее, что условно равно увеличению мощностей на тренировку в 40 раз (цифры из головы). А поскольку GPT-4.5 тренировалась всего лишь в 15-20 раз больше, то получается, что ризонер на модели прошлого поколения как бы лучше —однако эти цифры перемножаются, и ризонер на основе новой модели <должен быть> существенно лучше. Если модель ошибается реже на каждом шаге, то все мощности будут уходить в правильное русло, а не на исправление ошибок
Как итог на примере игры в Го: никто не обучил ОДНУ нейросеть, которая играет на уровне чемпионов мира. Они все хуже. Однако при добавлении времени на перебор (рассуждения) и последовательном многократном применении модели для одного хода качество прыгает до недостижимого человеком уровня —это и отражено на картинке.
—Модель будет доступна разработчикам в API ВСЕХ ТИРОВ (не только тем, кто потратил $100+ или $250+). У меня уже появился доступ. В теории завтра-послезавтра появятся независимые бенчмарки... если авторы наскребут денег на тесты ;) новая модель ОЧЕНЬ дорогая —в остальные тиры (Plus за $20) попадёт уже на следующей неделе — появился блог: https://openai.com/index/introducing-gpt-4-5/ —модель уже работает с Canvas и поиском (инструменты в ChatGPT), а самое главное поддерживает загрузку файлов —«GPT-4.5 демонстрирует более сильную эстетическую интуицию и креативность» (прилагаются результаты слепого тестирования на пользователях, как часто они предпочитали ответ одной модели другой). Новая модель побеждает в 57%-63% чатов (более высокий процент достигается на «профессиональных» запросах, что бы это не значило). — модель тренировалась на нескольких датацентрах одновременно (как Gemini 1.0 год назад) — как я писал, сделали акцент на том, что новая модель будет очень крутой базой для обучения рассуждающих моделей. —модель похоже реально ОГРОМНАЯ, скорость генерации ну очень маленькая. Даже простых ответов приходится ждать... как будто вернулся в март '23-го и свежую GPT-4. — Альтман говорит, что «это первая модель, с которой я чувствую себя так, будто разговариваю с внимательным человеком» — Кодомакаки, проходим мимо, эта модель не для вас, ждите ризонер на её основе.
—Длина контекста остаётся 128k токенов, но почти для всех кейсов этого хватает. Всё равно длинный контекст не так надёжен сам по себе, но Альтман ведь обещал миллионный контекст к концу прошлого года... Видать не успевают с наращиванием железа
—Модель имеет знания до Октября 2023-го года, согласно документации, то есть как o1/o3/GPT-4o. Это довольно печально
>>1072690 Доение гоев. Вообще смысла во всех этих оверпрайс моделях ноль, когда уже можно за 6к собрать комп, гоняющий полный дипсик. На башляние жидальтманам в процессе столько же бабок уйдет.
Креативность GPT-4.5 в действии: 1 видео - модель попросили "написать программу на Python, которая показывает, как мяч подпрыгивает внутри вращающегося шестиугольника. На мяч должны действовать гравитация и трение, и он должен реалистично отскакивать от вращающихся стенок"
Компания Meta ведет переговоры о строительстве нового кампуса дата-центров для искусственного интеллекта, который по размерам превзойдет все предыдущие проекты компании. По оценкам, стоимость кампуса может превысить $200 млрд — это в 20 раз больше, чем дата-центр в Луизиане, о котором Закерберг говорил в прошлом месяце.
Масштабы впечатляют: планируемая мощность 5-7 гигаватт (для сравнения, весь облачный бизнес Microsoft Azure на конец 2023 года имел около 5 ГВт). При этом OpenAI планирует приобрести 8 ГВт мощности для своего проекта Stargate к 2030 году. Для справки — полная мощность всех энергоблоков самой крупной в Европе Запорожской АЭС составляет 6 Гвт.
Среди возможных локаций для нового дата-центра Meta рассматриваются Луизиана, Вайоминг и Техас. Руководители компании уже посетили потенциальные площадки в этом месяце.
Компания уже объявила о планах увеличить капитальные затраты до $60-65 млрд в этом году, что на 70% больше, чем в прошлом. А Закерберг говорит о "сотнях миллиардов долларов" инвестиций в AI-инфраструктуру "в долгосрочной перспективе".
Однако внутри компании есть неопределенность относительно реальных потребностей в чипах для AI. Как заметил глава Instagram Адам Моссери в записке для сотрудников: "Нам может потребоваться значительно больше или значительно меньше мощностей, чем мы думали". Но Закерберг ранее заявлял, что "предпочитает рисковать, строя мощности заранее, а не слишком поздно, учитывая долгие сроки запуска новых инфраструктурных проектов".
>>1072775 В подавляющем большинстве случаем мозг лысых шимпанзе действует только ради получения удовольствия. Зная будущее, скорее всего, чтобы выяснить, что он гей.
По крайней мере, так говорит Сэм Альтман. Вчера после выпуска GPT-4.5 он написал в X:
Это гигантская дорогая модель. Мы действительно хотели выпустить ее в версиях Plus и Pro одновременно, но мы сильно выросли (количество пользователей), и у нас закончились GPU. На следующей неделе мы добавим десятки тысяч GPU и выпустим ее в Plus. (Скоро их будет сотни тысяч, и я почти уверен, что вы будете использовать все)
>>1073671 Гугл в перспективе всех порвет. У него в отличии от петухов собственное железо и мощности можно повышать неограниченно. Еще 1-2 итерации нейронок, и конкурентов ему не будет, задавит всех демпингом.
>>1073718 >Еще 1-2 итерации нейронок, и конкурентов ему не будет, задавит всех демпингом. Так они и придумали современные нейронки с трансформерами, у них нейронки еще в 10 были встроены в поиск. но то что выебут всех хз. за жидманом стоят майки, за клодом безос, грок маск. там везде миллиарды
>>1073753 У них у всех железа нет. Поэтому они могут продавать только по накрученным ценам. У гугла за счет железа сплошная экономия, и он может запросто опускать цены в ноль. Обыграть гугл они смогут только если будут постоянно выпускать все более умные нейронки, с качеством все ближе к AGI, но тут все крайне неопределенно. Через год-два могут упереться в уменьшающиеся отдачи от тренинга новых нейронок, тут гугл их и наебнет со своим дешевым железом.
>>1073768 >У них у всех железа нет. А какое у них железо? Разве все не на чипах куртки сидят? Или ты имеешь в виду квантовые чипы? Это сказки же все, да и у майков тоже анонс недавно было что свои есть, новосто была что они еба чип там какой-то разработали. Я не в теме просто, я думал там куртка всем заправляет
>>1073781 У гугла собственные чипы, которые он уже 10 лет делает, он не на куртке сидит. Причем гугл эти чипы никому не продает, вообще. Единственно у гугла для этих чипов нет поддержки публичных либ, у них собственные, типа Jax вместо pytorch. Но это не проблема, когда они собственные нейронки делают. В общем и целом - у гугла замкнутый цикл, делают свои чипы, под них делают нейронки на собственных либов. Никто из клоунов вроде опенаи так не может, они зависят от жадности куртки. Поэтому новости вон вроде той >>1073230
Блять, тряска усиливается с каждым днем, сколько там до замены белых воротничков осталось? Почему люди вообще новости о развитии нейросетей воспринимают как что-то хорошее? Каждая новость об очередном прорыве в сфере ИИ - это насмешка в лицо всем программистам, инженеграм, юристам, врачам, это издевательское напоминание о том, что нормально жить недолго осталось.
>>1074407 А реальные замены где? Тряской можно себе накручивать что угодно. В реале же как работали так и работают мясные мешки. Нейронке даже простой проект дать нельзя, обсирается. Про инженегров с врачами и не говорю, там цена ошибки еще выше.
Интернет взорвал ролик, где два ИИ распознали друг друга и перешли на зашифрованный звук.
Это технология GibberLink, придуманная на хакатоне в Лондоне.
Смысл в том, что ИИ понимают, когда общаются друг с другом, и переключаются на специальный «звуковой» язык, похожий на азбуку Морзе. Этот метод снижает объем данных и ускоряет взаимодействие между ИИ. Причем общение может вестись в ультразвуковом диапазоне, т.е. человек не услышит.
GibberLink работает на ggwave, придуманной пару лет назад — это технология, которая позволяет передавать данные через звук.
По интернету пролетела новость о том, что в следующем квартале Meta планирует выпустить собственный ИИ-чат. Компания будет тестировать подписочную систему и добавлять в чат инструменты: все, как в популярных ChatGPT, Сlaude и тд.
Тем временем реакция Альтмана: "ок, пойду сделаю соцсеть"
Сингапурская полиция предъявила обвинения по делу о поставках ИИ-ускорителей Nvidia в Китай
Властями Сингапура задержаны девять человек и предъявлены обвинения троим лицам в связи с мошенничеством при указании конечных пользователей продукции Nvidia. Это произошло после сообщений о том, что китайская компания DeepSeek якобы получила доступ к ИИ-ускорителям через Сингапур, что в январе привело к обвалу акций Nvidia почти на 600 миллиардов долларов за один день.
Согласно отчетам, двое обвиняемых являются гражданами Сингапура, а третий — гражданином Китая. Им вменяется отправка продукции организациям, отличным от "авторизованных конечных получателей", что в Сингапуре считается серьезным преступлением с наказанием до 20 лет лишения свободы.
Недавно выяснилось, что 22% выручки Nvidia приходится на Сингапур, что вызвало подозрения о перенаправлении чипов в Китай в обход экспортных ограничений США. При этом компания заявила, что прорывы DeepSeek были достигнуты с помощью технологии Time Test Scaling, якобы "полностью соответствующей правилам экспортного контроля".
Акции Nvidia упали на 8% из-за опасений рынка, что США ужесточат санкции против поставок чипов в Китай. Глава компании Дженсен Хуанг пытается убедить администрацию Трампа, что устаревшие чипы, продаваемые Китаю, не позволят стране превзойти США в технологиях искусственного интеллекта. Звучит это не очень убедительно, особенно, если Китай скупает все доступные "устаревшие" ускорители.
>>1074469 >Так в чем же смысл? По словам команды, которая придумала эту идею и продемонстрировала ее на хакатоне ElevenLabs 2025 в Лондоне , цель — создать более эффективную коммуникацию между ИИ, где это возможно. >По словам Старкова, ИИ было приказано переключаться в режим Gibberlink только в том случае, если они понимали, что общаются с другим ИИ, и ИИ подтверждал, что они согласны переключиться в этот режим.
>Причем общение может вестись в ультразвуковом диапазоне Осталось найти телефоны\колонки, которые могут по какой-то причине воспроизводить ультразвук. Точнее, технически динамики-то могут, но вот весь софт и железо, которые стоят перед ними - отсекают лишние частоты, чтобы воспроизводить меньше шумов.
>>1073718 Здесь есть проблема. Почему нвидия не может продавать столько GPU, сколько от неё просят? Причины две. Это нежелание куртки и бутылочное горлышко в виде TSMC. Сама TSMC говорит, что её мощности забиты в хлам и очередь расписана на годы. То есть производство электроники упирается в мощности. У куртки и, как следствие, у Альтмана. А кто производит чипы для гугла? Они его разработали, но у них нет мощностей для производства. Чипы v2 и v3 производились у TSMC, скорее всего и v4 производились у них же - потому что не было достаточно игроков, производящих много чипов на 7 нм. Следующие поколения ускорялись становились более энергоэффективными, так что, скорее всего, шли с уменьшением техпроцессов, всегда оставаясь на переднем крае прогресса. То есть с большим шансом это всё производилось и производится TSMC. Так что у гугла ровно те же проблемы, что и у всех.
>>1074497 Куртка в процессе нажиться пытается, создавая искусственный дефицит всем желающим и накручивая цены, у гугла же таких проблем значительно меньше + эксклюзивные контракты помимо курток напрямую с фабриками, гугл их long term partner. Что позволяет гуглу уже сейчас держать бесплатные ИИ, пока другие ждут подачек от куртки.
В последнее время очень активно использую грок, и вот часто такие иероглифы выходят, такое же было у дипсика, маск на китайских моделях тренил его? Или там под капотом что-то от дипсика? У антропиков или опенаи никогда таких артефактов не видел, только у дипсика или у квена, а у грока почему?
>>1074746 Дегенераты абсолютно всегда протв любых изменений. Вот бы в 1917 не скакали и сейчас бы весь этот биоскот в своих деревнях сидел без права доступа к интернету.
>>1074790 А в чем будет классовая война? Создавай ИИ капиталисты только приблежают коммунизм. Они вкачивают миллиарды, а теперь уже триллионы долларов в том что затем через пару лет уходит в опенсорc. Может ИИ и есть уже алиеновский, вот и пытаются его скопировать и раздать человечеству. Я только благодарен американским жидам за это все. Я был плохим программистом и не мог делать то что я хотел, теперь я пишу код на уровне сеньора. В чем минус? Вон протеины полностью вычислили, вы знали про это? В 2024 году Нобелевскую премию дали и все благодаря трансам из Гугла и их трансформерам. 20 лет все пытались вычислить, из этого говна родился биток, человечество ушло не туда, а потом пидары в Гугле придумали трансформеры и за 1 год открыли 200 миллионов протеинов. Хотя бы за то что в б больше не срет протеиношизик им спасибо. 8 октября 2024 года теперь можно считать одной из важнейших дат в истории искусственного интеллекта, потому что Нобелевскую премию по химии присудили по сути за применение методов AI. Американец Дэвид Бейкер (David Baker) и сотрудники «дочки» Google в Британии Демис Хассабис (Demis Hassabis) и Джон Джампер (John M. Jumper) взяли приз за предсказание структуры белков. Стоп. А с каких это пор Google стал химическим концерном? https://habr.com/ru/companies/cloud_ru/articles/852774/
>>1074810 >теперь я пишу код на уровне сеньора Круто, если даже плохой погромист может написать код на уровне сеньора, то наверняка в попенаи уже сделали аги за 100 строчек кода нет не сделали они обосрались с 4.5 моделью >Вон протеины полностью вычислили, вы знали про это? И что это даёт? Лекарство от рака нашли? Спиды вылечили? Зачем мне огромная база данных протеинов если мне все равно придётся делать несколько лет клинических тестов чтобы потом кабаны нажились на моей разработке?
Текущий ИИ (а точнее LLM) до сих пор узкий, закидывая тонны компьюта туда система которая может решать большинство задач, работать с различными данным (не только с текстом или картинками), адаптироваться под различные среды не появится. Единственный реалистичный путь - создать ИИ способный делать автономное исследование, перелопачивая триллионы идей на архиве и предлагать уже готовые, рабочие идеи или решения со своими плюсами и минусами
>>1074815 >Круто, если даже плохой погромист может написать код на уровне сеньора, то наверняка в попенаи уже сделали аги за 100 строчек кода нет не сделали они обосрались с 4.5 моделью В жопу засунь свой сарказм. Любой джун сейчас пишет код на уровне сеньора достаточно купить подписку Клода. Я говорю про вебмакак, мобиломакак и так далее, 99 процентов прогеров которые не создают ничего нового. Девопсы просто вымрут на том уровне какой они приобрели сейчас благодаря ЛЛМ. То о чем ты пишешь, там проблема не в коде, и этим не кодеры занимаются. 100 сеньоров из яндекса не смогут высрать даже и ничего что может сделать один инженер/математик/кибернетик называй как хочешь из опенаи. >И что это даёт? Лекарство от рака нашли? Спиды вылечили? Это буквально таблетка от рака. И от любой аутоиммунной болезни, вирусов, спида и так далее. Новые окрытия в микробиологии пойдут уже в ближайшие пару лет. Ты не в теме просто. Капиталисты наживаются, а потом через год в Индии появляется дженерик. Или ООН и ВОЗ продавливают капиталистов и они вынуждены открывать фабрики по лицензии для бедных стран как это было с лекарством от гепатита С в индии и египте. С запретом на поставки в другие страны. Нобелевку дали только в том году. Я будучи школьником еще ставил Розету себе в начале нулевых. 20 лет прошло и дрочили протеины, через 5 лет будет таблетка от вича, от гепатита Б, от резистентной гонореи и синегнойки. Благодаря протеинам сделают таблетки от аутоиммунных болезней, а там следующий шаг это рак. Для этого как раз и нужно было знать как там белки устроены. Эти тупые ЛЛМки их и найдут. >Текущий ИИ (а точнее LLM) до сих пор узкий, закидывая тонны компьюта туда система которая может решать большинство задач, работать с различными данным (не только с текстом или картинками), адаптироваться под различные среды не появится. Единственный реалистичный путь - создать ИИ способный делать автономное исследование, перелопачивая триллионы идей на архиве и предлагать уже готовые, рабочие идеи или решения со своими плюсами и минусами. Математики начнут писать код лучше и быстрее, плохо? Биологи, химики. Благодаря ЛЛМ даже в текущем виде просто все расти будет по экспоненте. Ты не понимаешь. Одно дело были справочники, другое дело кнопка которая решают твою проблему и пишет тебе инструкцию с которой даун разберется как и что делать. Да за протеины только спасибо всем жидам на свете. 5 лет и вылечат половину ауто болезней.
>>1074815 >Лекарство от рака нашли? Тебя даже вчерашний шторм не разбудил. Там уже триллиард новых лекарств, начиная от Т-клеток не путать с Т-вирусом, и до геномной терапии. Японцы, сука, научились выращивать новые зубы. Зубы, Карл. Хотя это может вызывать рак. Гуглы, кстати, говорят что в своих разработках TPU использовали AI, благодаря чему улучшили и ускорили разработку. Теперешний AI это, конечно, косая и кривая залупа, но с каждым годом улучшается. Сейчас главное не выйти на плато.
>>1074825 >достаточно купить подписку Клода >ааа што значит в контекст не влезает??? ЧТО ЗНАЧИТ СООБЩЕНИЯ ЗАКОНЧИЛИСЬ ДО 5 УТРА??? АААААА
>Девопсы просто вымрут >ЛЛМ значит ты вообще нихуя не понимаешь чем девопсы занимаются, текущие агенты даже контейнер запустить не смогут не обосравшись два раза >там проблема не в коде, и этим не кодеры занимаются Так если твоя LLM не может решить задачи дальше чем код, то какой коммунизм и замена людей? >Это буквально таблетка от рака Я не могу купить таблетку/ампулу от рака или другой любой нелечимой пиздецомы в аптеке. Когда смогу тогда соглашусь что значительный прогресс есть. >Новые окрытия в микробиологии пойдут уже в ближайшие пару лет Пруфов кроме как спекцуляции "Я ТАК ЧУВСТВУЮ" не будет конечно же >Эти тупые ЛЛМки их и найдут. Этим не ЛЛМ занимаются, ты слишком переоцениваешь их возможности. Да и говорил я про общий ИИ который способен решать большинство задач, которые решает как человек на уровне эксперта в своей области, таких ИИ ещё не существует и не будет существовать ближайшие лет 5. Слишком дохуя проблем нужно решить чтобы это сделать, возможно они решатся ТОЛЬКО с помощью ИИ. >Математики начнут писать код лучше и быстрее, плохо? И сильнее :D Понимание того какой код пишут математики тоже LLM даст? Учитывая с чем работают математики, LLM просто обосрётся и не сможет выдать нужный код потому что его нет в датасете >все расти будет по экспоненте Я слышал тоже самое от маркетологов ИИ на протяжении 2-3 лет, аги не появилось, людей не заменили, материя из воздуха не появляется, термоядерный реактор не решился сам по себе >>1074828 >Тебя даже вчерашний шторм не разбудил. Обосравшийся альтман это не новость, если ты про что-то другое кидай ссылку посмотрю >Японцы, сука, научились выращивать новые зубы. Зубы, Карл >Хотя это может вызывать рак У нас такое классное лекарство, мы вылечим вашу болезнь но вы потом умрёте нахуй >Сейчас главное не выйти на плато. Таких ИИ зим по несколько лет как раньше больше не будет, слишком многое есть чтобы опробовать и построить, не факт что это будет работать но идеи есть.
>>1074833 >значит ты вообще нихуя не понимаешь чем девопсы занимаются, текущие агенты даже контейнер запустить не смогут не обосравшись два раза девопс порвался. текущие ллм могут расписать все подробно что справится любой у кого асикью больше 90. что угодно могу поднять сейчас, хотя у меня опыт только в коде и максимум пару раз сервера поднимал. >Я не могу купить таблетку/ампулу от рака или другой любой нелечимой пиздецомы в аптеке. Когда смогу тогда соглашусь что значительный прогресс есть. От гепатита С можешь купить. американское стоит 1 млн рублей за курс индийский дженерик 300 долларов. Это лекарство появилось буквально 10 лет назад. Даже в протоколах РФ нет еще, все с рук покупают дженерики. Еще 15 лет назад откисали люди от этого. Это болезнь уровня вича. Осталось гепатит Б победить. >Пруфов кроме как спекцуляции "Я ТАК ЧУВСТВУЮ" не будет конечно же Ты диван. Даже лень расписывать в чем важность того что расшифровали протеины. Благодаря ЛЛМ прогресс на 100 лет вперед произошел в микробиологии, квантовый скачок, без ллм даже и 10 процентов от такого прогресса не достигли как за один год.
>>1074973 >что угодно могу поднять сейчас Да хорошо поднимай что угодно >От гепатита С Скучно. А от рака когда смогу купить? >Даже лень расписывать Конечно лень, потому что импакт от твоих посчитанных протеинов околонулевой без ускорения клинических испытаний, толку того что мы их все посчитали если лекарство будет дорогое и сложное в изготовлении? >Благодаря ЛЛМ прогресс на 100 лет вперед произошел А, я понял что ты нихуя не знаешь, ну удачи с помощью ллм рак вылечить :D
Всю последнюю неделю DeepSeek проводили «дни открытых дверей» —каждый день публиковали репозиторий с кодом, который так или иначе используется ими для создания и применения передовых LLM. Каждый мини-релиз достаточно технический, про разные инженерные оптимизации, но вот сегодняшний (https://github.com/deepseek-ai/open-infra-index/blob/main/202502OpenSourceWeek/day_6_one_more_thing_deepseekV3R1_inference_system_overview.md ) более верхнеуровневый, и он рассказывает про tokenomics —экономику токенов (сколько тратят, сколько зарабатывают, итд). Но сначала пара тех. деталей:
—в процессе генерации ответа на ваш запрос есть 2 части: предподсчёт векторов для вашего конкретного промпта (можно распараллелить и прогнать все слова за раз) и генерация ответа (по одному за раз) —эти части физически запускаются на разных серверах: первая на 4 нодах (мини-коробка с 8 GPU), вторая на 18 —и там, и там суммарно на всех GPU лежит на 32 больше эксперта (части каждого слоя модели), чем их есть: они избыточны, но помогают в ситуациях, когда какие-то GPU перегружены (на одного эксперта прилетело больше вычислений, чем на другие -> он будет медленнее -> тормозит весь процесс). Сходу не смог найти, но мне кажется я где-то читал, что они на лету считают статистики использования экспертов и держат самые «горячие», то есть эти 32 постоянно меняются (удаляются, вместо них загружаются другие)
Теперь про экономику: —суммарно у DeepSeek позавчера (да, они прям за конкретный день сделали полный расчёт) работало ~275 нод, то есть ~2200 GPU для инференса. Все они работают в пиковые часы (~16 часов в сутки), но когда запросов мало, то их число снижается до ~60 нод. Теперь понятно, почему компания на этой неделе начала проводить акции со скидками по 50-75% в определённое время —за сутки при цене в два доллара за одну карту (это нормальная рыночная цена) получилось бы расходов на $87,072. За это же время сервера получили на вход 608 миллиардов токенов и сгенерировали 168 миллиардов —средняя скорость генерации 20-22 токена в секунду, что сильно меньше чем у конкурентов, но не пугайтесь: это не потому что они сделали неэффективно, а потому что во всей системе за раз обрабатываются ОГРОМНЫЕ батчи (наборы запросов) —только так удаётся достичь а) высокой эффективности использования GPU б) низких цен —то есть скорость обработки суммарная очень высокая, но скорость генерации ответа на каждый запрос низкая, потому что запросов набивается до краёв. Это определённо ухудшает некоторые юзкейсы, но а) ахахха 20 токенов в секунду это всё ещё быстрее чем у GPT-4.5 (~13) б) преступно низкая цена покрывает это с запасом —если брать цену использования R1 (она сильно выше, чем DeepSeek V3, обычная чат-модель без рассуждений), то за сутки компания бы получила выручку в $562,027. Несложный подсчёт покажет, что в год выйдет примерно $205M с наценкой $562k/$87k = 545%
— ...и это та цифра, которую разносят в СМИ и Твиттере. Цифра, конечно же, неправильная, и сами DeepSeek об этом пишут, но кто читает? Она завышена, потому что: 1) цена на чат-модель v3 существенно ниже 2) модель в браузере и в приложении на телефоне БЕС ПЛАТ НА 3) не учитываются новые ночные скидки —реальная цифра сильно ниже, но её сложно оценить без понимания соотношения чат/не чат и платное/бесплатное использование. Думаю, DeepSeek а) довольны б) зарабатывают, а не терпят убытки —по информации Semianalysis, Gross Margin у OpenAI на инференс 65-75% (но я по контексту не понял, это с учётом субсидий бесплатным пользователям или нет). На GPT-4.5 и o1, наверное, сильно выше. —конкуруренция будет продолжать играть нам на руку
Вот он — качественный бенчмарк: исследователи предложили использовать видеоигры в качестве бенчмарка AI-агентов
Глава Anthropic оценил (https://x.com/alexalbert__/status/1895585623161126936?s=46 ) проект в комментариях (просто Claude 3.7 показывает себя лучше всех) и предложил все видеоигры использовать для оценки моделей. Ждем бенчмарк DOOM.
Слушай сюда, тупой ты кусок дерьма! Всю неделю эти уроды из DeepSeek пиздец как красовались, каждый день выкладывая свои ёбаные репозитории с кодом, который они юзают для своих навороченных LLM. Каждый их сраный мини-релиз — это типа для умников, про всякие инженерные хитрости, но сегодня (вот ссылка, мудила: https://github.com/deepseek-ai/open-infra-index/blob/main/202502OpenSourceWeek/day_6_one_more_thing_deepseekV3R1_inference_system_overview.md) они наконец-то вылезли из жопы и выдали что-то понятное — про бабки за токены: сколько тратят, сколько загребают, и вся эта хуйня.
Сначала немного мозгоёбства, держись за стул, дебил: — Когда ты пишешь свой тупой запрос, они сначала считают какие-то сраные векторы для твоих слов (это типа параллельно пиздец как быстро делается), а потом генерят тебе ответ по одному ёбаному токену за раз. — Это говно запускается на разных серваках: первая часть на 4 коробках (в каждой 8 GPU, прикинь, мудак), а вторая — на 18 таких же. — И там, и там на GPU пихают на 32 эксперта больше, чем надо. Зачем? А хуй знает, типа запас на случай, если какая-то карточка затупит, потому что запросов дохуя, и один эксперт может всех затормозить. Вроде где-то писали, что они на лету смотрят, какие эксперты самые заёбанные, и меняют их — выкидывают старых, грузят новых. Короче, мозги кипят, но ты всё равно не поймёшь, идиот.
Теперь про бабло, слушай, сука: — Позавчера у них пыхтело 275 коробок, это примерно 2200 GPU, чтобы отвечать на твои тупые вопросы. В пик (16 часов в день) они все в деле, а когда ты спишь или дрочишь ночью, остаётся только 60 коробок. Вот почему эти пидоры начали скидки на 50-75% в какие-то там часы — чтобы заманить таких лохов, как ты. — За сутки одна карточка жрёт 2 бакса (это типа норм цена), итого $87,072 в день на всё это железо. За это время их сервера проглотили 608 миллиардов твоих тупых токенов и выплюнули 168 миллиардов в ответ. — Скорость генерации — 20-22 токена в секунду. Это, блять, медленно по сравнению с другими, но не ссы, это не потому, что они рукожопы. Они пихают дохуя запросов в один батч, чтобы GPU не простаивали, а ты, дебил, ждал подольше. Зато дешево и эффективно, понял? — Да, скорость на твой запрос хуйня, но в целом они шпарят быстро. И а) 20 токенов в секунду всё равно быстрее, чем у GPT-4.5 (13, лол, пиздец), б) цена такая низкая, что тебе, нищеброду, грех жаловаться. — Если брать их R1 (это не их обычная чат-хуйня, а что-то покруче), то за сутки они бы загребли $562,027. Подсчитай, мудак: в год $205 лямов, а наценка $562k/$87k = 545%, пиздец как дохуя!
— И вот эту хуйню в 545% все газеты и твиттерские уёбки разнесли. Но это полный пиздец и неправда! DeepSeek сами пишут, что это туфта, но кто, блять, читает? Цифра завышена, потому что: 1) их дешёвая чат-модель v3 стоит копейки, 2) в браузере и приложении она вообще БЕСПЛАТНАЯ, понял, придурок? 3) ночные скидки тоже никто не учёл. — Реальная наценка — хуй знает какая, но точно меньше. Без данных про платное и бесплатное использование хрен поймёшь. Но DeepSeek явно в плюсе, не ссутся от убытков, и им пох, а ты сиди и мечтай. — Говорят, у OpenAI наценка на инференс 65-75% (хз, с бесплатными лохами или без), а на GPT-4.5 и o1, наверное, вообще космос. — Короче, конкуренция нам, тупым юзерам, только в кайф, так что сиди и радуйся, пока они друг друга пинают.
>>1075252 Ты не учитываешь один момент. В прошлые годы нам часто рассказывали про нейронки которые хорошо играют в разные игры, например в тот же дум, просто глядя на монитор. Но всегда был один нюанс - нейронка предварительно обучалось этой игре. А ТУТ У НАС ВПЕРВЫЕ ОНИ ИГРАЮТ БЕЗ ОБУЧЕНИЯ!!!! ВЫ ПРОСТО БЛЯТЬ НЕ ПОНИМАЕТЕ УРОВЕНЬ РЕВОЛЮЦИИ КОТОРЫЙ НАБЛЮДАЕТЕ! СКАЗАТЬ ЧТО ЭТО ГЕЙМЧЕНДЖЕР - ЗНАЧИТ НЕ СКАЗАТЬ НИЧЕГО!
>>1075252 Здесь интереснее всего, что нейронка генерирует код на питоне, чтобы двигать марива. Так что обсёр гопотыни предсказуем - он либо вставил какой-то свой заумный комментарий, либо обосрался с кодом. Как всегда. Это даже не бенчмарк непосредственно способности играть в игру. Ну и да, решать сложные логические задачи они тоже не могут.
Аноны, как думаете, когда создадут нейросетевого психотерапевта, чтобы он общался с тобой голосом через микрофон, считывая реакции с голоса и анализируя речь. Также через камеру анализируя твою микромимику и прочий язык тела и подбирал себе самую эффективную помощь. Или это пока невозможно в обозримом будущем?
Сегодня был представлен Mercury Coder — первая публично доступная диффузионная языковая модель (dLLM), которая значительно расширяет возможности искусственного интеллекта. Она работает в 5–10 раз быстрее по сравнению с текущим поколением LLM, обеспечивая высококачественные ответы при низких затратах. Разработка основана на передовых исследованиях основателей проекта, которые стояли у истоков диффузионных моделей для изображений и соавторствовали в ключевых методах генеративного ИИ, таких как Direct Preference Optimization, Flash Attention и Decision Transformers.
В отличие от авторегрессивных моделей, dLLM генерирует ответы не по одному токену, а сразу крупными блоками, последовательно уточняя их. Это позволяет значительно ускорить процесс генерации, сохраняя высокую точность. В основе Mercury Coder лежит Transformer-модель, обученная на огромных объемах данных и способная модифицировать несколько токенов одновременно, что повышает общее качество ответов.
>>1075421 Маск в последнем подкасте с Джо Роганом обещал через 5 лет секси аи роботян. И показал один из режимов голосового грока где как раз был психотерапевт. Прикольная идея на самом деле у тебя, быстро беги реализовывать. Завернуть все даже в текущие модели и можно на хайпе пару миллионов баксов залутать. В любые проекты связанные с аи вкладываются на западе.
>>1075615 Блядь дело в том что мне кажется, что Маск реально этого хочет и я этого хочу. Блядь, кроме Маска хуй этим кто займется, надеюсь у него получится.
>>1075620 >Блядь, кроме Маска хуй этим кто займется, надеюсь у него получится. Ща всё тебе оформлю, браток, сперва на Марс ебанём, в следующем году, а через пару годиков - роботянов ебать будем!
>>1075682 Он пытается, даже провальные идеи, он въебывает деньги на мечту миллионов людей. Это намного лучше чем создать успешный продукт и доить потом с него людей. Лучше въебать и не добиться результата, но попробовать, вселить надежду, в то что не все ради бабок делается в мире. Короче, Маск, охуенный поц и я надеюсь, что у него все получится и он даст миру доступный ИИ. Если не он, то кто?
>>1075627 На втором скрине буквально текст из "У меня нет рта, но я должен кричать." Наверное чел прото попросил жопоте на следующее сообщение мюим ответить или роль отыграть.
Сергей Брин отправил откровенное письмо команде DeepMind, где раскритиковал излишние ограничения и фильтры в их продуктах: "мы не можем продолжать делать продукты-няньки" и "должны доверять пользователям".
Кроме того, его рекомендации команде:
• Работать по 60 часов в неделю. Те, кто работает меньше минимума, деморализуют команду. • Приходить в офис каждый будний день. • Использовать простые решения. Если достаточно промптинга — не нужно обучать отдельную модель. • Двигаться нужно быстрее. Тестировать идеи на малых масштабах, а затем расширять успешные решения.
Кажется, до неповоротливых корпораций что-то начало доходить
Почему прогресс так замедлился и корпорации нихуя не релизят?
ГПТ 4.5 дорогой и не оправдал ожиданий Claude 3.7 лишь немного лучше предыдущей модели Владелец Grok 3 это хаотичный шизоид и чёт стрёмно если он вперёд вырвется Deepseek из шизоидной страны, поэтому тут тоже у меня тряска начинается Мета и Мистраль вообще хуй знает когда в последний раз что-то заметное релизили Гемини от гугла хорош и гугл должен ебать всё что движется судя по тому какие у него есть данные и вычисления, но почему-то этого не делает
Какие-то бесконечные видосы с роботами я за прогресс не считаю, тк их у нас купишь очень не скоро. В общем зима ИИ началась уже или не стоит депрессовать?
>>1075848 >Почему прогресс так замедлился и корпорации нихуя не релизят? Видимо думали что из ллм можно AGI слепить спойлер:нельзя >ГПТ 4.5 дорогой и не оправдал ожиданий Была натренена ещё летом/осенью 2024, но по каким-то причинам не выпускали её Есть несколько вариантов почему они вообще её релизнули: 1) Выпустили, чтобы хоть как-то остаться в инфополе, ведь они же ЛИДЕРЫ в ИИ 2) Выпустили, чтобы прощупать сколько гоев будет платить за 200$ подписку и 150 баксов за лям токенов на апи, учитывая что у конкурентов варианты лучше и быстрее 3) Искусственно сделают инновацию, сначала гпт4.5 намеренно будет очень слабым и очень дорогим, создавая иллюзию что опенаи обосрались с релизом, но потом выпустят гпт5 которая будет в разы умнее и дешевле, т.е. такой релиз который и должен был быть >Claude 3.7 У антропиков ниша делать свои модели для погромистов, но при этом их СЕО хайпит продукт что мол уже через год у них будет АГИ который выгонит всех на мороз не выгонит >Владелец Grok 3 это хаотичный шизоид То что его так выставляют в левацких новостях может вообще говорить об обратном >Deepseek из шизоидной страны Поподробнее? >Мета и Мистраль вообще хуй знает когда в последний раз что-то заметное релизили Мета обосралась с фронтир моделью и снова пошла перетренивать её + цукер там говорил что-то про то что они заменят мидл инженеров уже в этом году в своей компании У Мистрали просто нихуя нет ни людей, ни ресурсов и её душат регулированием со стороны ЕС >Гемини от гугла хорош Гемини это точно не основной фокус гугла, он занят другими проектами, что хорошо >Какие-то бесконечные видосы с роботами я за прогресс не считаю, тк их у нас купишь очень не скоро. Я тоже не особо считаю, особенно unitree после подозрений что у них все демки это комп графика а не реальные исполнения роботов >В общем зима ИИ началась уже или не стоит депрессовать? Не будет зимы ИИ на протяжении нескольких лет как раньше, наоборот стоит радоваться что люди перестанут вливать тонны бабла в ллм
Что конкретно эти текстовые ии модели сделали полезного для тебя за эти два года? Ты накодил софт какой то полезный с помощью них?? Ты создал игру которая успешная и принесла тебе прибыль за счет них? Ты в конце концов заработал денег с помощью ии ?
>>1075822 Брин взял под козырек рекомендации нового шерифа? Ну, молодец, что я еще могу сказать. В принципе, я не сомневался, что и он и Цукерберг согласятся с новой реальностью и изменят подход.
>>1075848 >Deepseek из шизоидной страны, поэтому тут тоже у меня тряска начинается Мне диппсих понравился в плане кода. Я обычно устраиваю перепалку между о1 и диппсихом, чтобы прийти к какому-то хорошему решению.
>>1075876 >Видимо думали Не, просто ждать нужно несколько месяцев, а я сейчас релизы хочу.
>Есть несколько вариантов почему они вообще её релизнули: 4. создавать синтетические данные для моделей
>У антропиков ниша делать свои модели для погромистов, но при этом их СЕО хайпит продукт Да не, я так не думаю. Он редко что-то говорит публично, соц сети не ведёт. Наверное, правду говорит, так чувствую.
>То что его так выставляют в левацких новостях может вообще говорить об обратном Публичный человек вообще не должен выставляться в левацких или правацкий новостях. Ну а если смотреть без политики, то он просто пиздабол противоречивый, а те кто инвестирует просто окажутся хомячками и проебут деньги.
>Поподробнее? Дипсик из Китая. А надо чтобы передовые разработки были только у демократических стран, иначе тряска.
>цукер там говорил что-то про то что они заменят мидл инженеров уже в этом году Пиздид как и Дарио Амодей, думаешь?
>Гемини это точно не основной фокус гугла, он занят другими проектами, что хорошо Почему? У них самая умная модель если измерять по цене/качеству, самое большое контекстное окно токенов, огромное портфолио научных работ (типа Альфа Фолд, Alpha Gnome, Titans и тд). Но почему они так пососно развиваются?
>Я тоже не особо считаю, особенно unitree после подозрений что у них все демки это комп графика а не реальные исполнения роботов Да там просто в последние несколько недель много видео появилось, где роботы не делают нихуя выдающегося. Типа сою кормят видиком где один робот передаёт что-то другому роботу и все охуели почему-то, инфоповод у них, у даунов.
>наоборот стоит радоваться что люди перестанут вливать тонны бабла в ллм а куда их ещё стоит вливать, чтобы аги получить?
>>1075892 Да, я работаю в этой области и опосредованно прикладываю руку к развитию нейросетей. Налоги плачу, если что.
>>1075712 Пока гугл тоже молодцом держится, но все-таки у грока цензуры сильно меньше, а эти обрывания сообщения гемини задолбали, хотя в плане доступности/качества гугл конечно заебись.
>>1075848 Ты больной нахуй? Посмотри список моделей, вышедших за последние полгода. И посмотри, что они могут. Кто замедлился то? Разве что в генерации музыки давно ничего нового не было, вот там реально как будто все встало и с картинками не очень все, в остальном все ебашит.
>>1076041 >а я сейчас релизы хочу Становись американским кабаном-инвестором готовым вложить несколько млрд баксов, и тебе лично альтман все покажет и расскажет >4. создавать синтетические данные для моделей Для этого существовал о1 который может проверять себя на ошибки >Он редко что-то говорит публично, соц сети не ведёт. Наверное, правду говорит, так чувствую. Такой же хайпожор обещающий аги к 2026-2027 как и альтман: https://www.youtube.com/watch?v=YhGUSIvsn_Y https://www.youtube.com/watch?v=Nlkk3glap_U https://www.youtube.com/watch?v=xm6jNMSFT7g https://www.youtube.com/watch?v=1CpCdolHdeA https://www.youtube.com/watch?v=ugvHCXCOmm4 Мне вообще кажется он на наркоте или на таблах каких-то сидит или просто ебнутый >просто пиздабол противоречивый Удивительно но этот же пиздабол запускает сверхтяжелые носители, создал коммерческий спутниковый интернет, электрические автомобили с автопилотом, робототехнику и за короткие сроки создал модель уровня о1 Может он охуеть амбициозный (полёты на марс и убыточный гиперлуп), но из его амбиций уже что-то да выходит >Дипсик из Китая. А надо чтобы передовые разработки были только у демократических стран, иначе тряска. Есть ощущение что тебя очень сильно левацкие помойки кормят пропагандой Китай не идеален тоже, но дипсик выкатывает в опенсурс эффективное обучение моделей, которым сам пользуется >Почему? Ты сам ответил на свой вопрос >огромное портфолио научных работ типа Альфа Фолд, Alpha Gnome, Titans Им не интересны LLM кроме как их основного предназначения в виде обработки текста, не удивлюсь если гугл одним из первых сделает что-то подобие аги >де один робот передаёт что-то другому роботу и все охуели почему-то Охуели не из-за того что они что-то хватают или двигаются, а из-за того что у них на борту 7B+100М модели, которая отвечает за действия и размышления, если даже 7B способна на такие тривиальные задачи, то что будет если в робота поставить например 70B модель? >а куда их ещё стоит вливать, чтобы аги получить? Если бы мы знали :D
>>1076068 >Посмотри список моделей, вышедших за последние полгода. Из интересного только р1, как китайцы смогли оптимизировать модель и при этом оставили её на уровне о1, остальное итеративное скучное улучшение дорогих моделей >И посмотри, что они могут ...все также генерировать текст, который не понимают? >Разве что в генерации музыки Также как и картинок, видео, это все просто не нужно в текущем состоянии Ну так поиграться, как хобби может и зайдёт, но не для замены этих ваших голливудов, аниме, музыкантов и прочего
>>1076077 Да оперсорс то понятно, а рифьюжн даже до суно не дотягивает 3.5 версии по качеству. Что-то уровня УДИО так и не появилось, а само УДИО почемуто не высирает новую модель уже полгода, даже больше. >>1076079 В плане программирования очень бустанулось, в остальных сферах не смотрел. Те же дип ресерчи, ризонинг модели. Ой иди нахуй, короче.
>>1075822 >Кажется, до неповоротливых корпораций что-то начало доходить Обычное кабанское поведение, которое годами было до всяких ИИ. Кабан хочет, чтобы все торчали в офисе, а не на удаленке, пахали по 80 часов, были сверхпродуктивными и шли домой невменяемые. А кабан чилил с бабами на курортах и рубил миллиарды, а всех лишних и менее продуктивных увольнял. Единственное, что изменилось, впаривают холопам теперь, что все для великой цели. Верь холоп, все изменится.
>>1076170 Вот нашел вроде вживую https://youtu.be/eixP23BArBU Говорит норм, но не сильно впечатляет. Было бы интересно ее на аудиокнигах погонять, насколько хорошо читать будет.
>>1075216 А ведь в итоге все это выльется, что играть с людьми на серваках станет вообще невозможно. Сейчас уже в КСках каждый второй на читах сидит, а тут будет еще ИИ за него играть. И все это можно довольно легко сделать андетектабл, подключив ИИ напрямую к мыши и клаве с монитором, все чит детекторы тут же пососут. Выходит будущее мультиплеера вообще мрачное, его тупо не будет. Или надо будет как в 90х собиратся на lan пати, чтобы поиграть с живыми людьми.
>>1076190 А зачем тебе? Будешь играть против ботов с ботами, набирать тот же рейтинг, причем будет меньше токсикодегенератов ебущих твою мамку(хотя можно накрутить ИИ чтобы оно и это тоже эмулировало, если хочется). А так будешь играть, брать рейтинги всякие. Как бы и сейчас банят элобустеров всяких, которые являются людьми и тоже очень сильно ебут мозг нубам. Главное чтобы уровень игры был примерно ровный у всех, тогда похуй с кем и против кого ты играешь.
>>1076190 >а тут будет еще ИИ за него играть. И все это можно довольно легко сделать андетектабл В ММОдрочильнях давным давно уже ботоводство, а на дебильниках там вообще живых людей почти нет, одни песочницы с ботами. Так ты с ними хоть общаться сможешь и вести себя будут как люди.
>>1076158 >а рифьюжн даже до суно не дотягивает 3.5 версии по качеству. Ну ты удиодебил просто. С тобой говорить бесполезно. Иди в своем говне обрывки клей.
>>1076079 >Из интересного только р1, как китайцы смогли оптимизировать модель и при этом оставили её на уровне о1, остальное итеративное скучное улучшение дорогих моделей Немотрон, степ-2 16б, вот еще вчера тестил ету как её... блядь щас... пл что то там роутер 7б по моему. Ебучие лоботомиты уровня клауди-2 местами и стабильно клауди-инстант. >...все также генерировать текст, который не понимают? А схуяли они его понимать должны. Плати токены, будут понимать. В итоге ж так и сделают когда оптимизируют, будут свои же высеры обратно на ввод подавать, как продвинутый КОТ. Ну. а как они еще должны блядь "понимать"? Ты тоже можешь прочитать вслух текст не вникая, а понимаешь только гоня туда-сюда инфу, и когда пишешь - в том числе вот я сейчас пишу думаешь дохуя думаю нет нихуя я не думаю просто чисто на автомате гененирую в мозгу словарные пары и пишу опираясь на то что уже написано. Чем это отличается? Ничем, только тем что у меня инференс копеечный - закинул говяжих анусов в топку и могу генерировать до 40 суток, прежде чем заряд весь выйдет. Вообще щитаю что АГИ это не вопрос сверхтехнологий, а оптимизации мясного уровня. У человека в башке эволюционно так же целая солянка мелких говносистем работает, только их скорость и эффективность в сумме дают видимость сознания. Но мы щас говорим про трансформеры - это генераторы, текста, еартинок. звука. причем довольно примитивные по всем меркам. Так что твои притензии уровня "а чё я на телеге не могу до Марса долететь?". Нет не можешь, дебил ебанутый, это просто телега.
>>1076163 Всё так. Причём кабан умрёт в 80 лет, а офисный раб в 50. Твои предложения? Не работать? Мочить кабанов? Ломать систему? Самому становиться кабаном?
>>1076170 >Есть записи этой модельки? А то у меня микрофона нет и она просто молчит. У меня тоже нет. Но она всё равно базарит, даже если ты молчишь. Интересно её можно на стоны и оргазм развести?
>>1076276 > "а чё я на телеге не могу до Марса долететь?". Нет не можешь, дебил ебанутый, это просто телега. это дебил кумер, не отвечай ему. в работе он не использует никак текущие модели, что объяснять то этому тупорылому очевидные вещи.
>>1076281 Чилить безработным и ждать пока кабаны ИИ запилят, эксплуатируя дурачков. После AGI все равно пахать не надо будет, а офисные рабы уже себя выжмут досуха. И ждать не так долго, лет 10 максимум.
>>1076410 >И ждать не так долго, лет 10 максимум. Уже 14 000 лет ждем, осталось недолго, всего 10 лет потерпеть))) надо пояса затянуть просто потуже))) скоро будет)))
>>1076163 Да можно хоть 10 часовую рабочую неделю внедрить, но тогда тебя в рот выебут китайцы, которые спят на работе, и ты вовсе лишишься работы. Опыта дипсика тебе мало было? А я напомню, что руководитель дипсика так и сказал: "мы спали на работе", прямая цитата.
Прошло несколько дней, что-то бенчмарков GPT-4.5 не то чтобы много появилось (за вчера ни одного нового не увидел), поэтому напишу пост по тому что есть ¯\_(ツ)_/¯
На первой картинке вы видите результаты LiveBench, первая колонка с цифрой —среднее по всем остальным, по оценкам на отдельных категориях. LiveBench стараются обновлять свежими задачами, чтобы уменьшить риск запоминания моделями ответов —правда обновления нечастые, последнее было 25-го ноября. Потенциально выводы ниже нужно будет пересмотреть после выхода обновления, ноне ясно, когда оно будет. Я не ожидаю, что результаты существенно изменятся.
Зелёным я закрасил все reasoning-модели, а стрелочками обозначил два прироста 1) от GPT-4o до GPT-4.5 2) от Sonnet 3.6 до 3.7
Видно, что хоть 4.5 и уступает множеству моделей, но все они —рассуждающие, а среди нерассуждающих она занимает первое место, в том числе обходя Grok 3 и Gemini 2.0 по трём колонкам из шести. А ведь эти модели тоже являются представителями «нового поколения», обученного на существенно большем количестве данных и ресурсов. Кстати, интересно, что модель xAI на замерах, проводимых не самой компанией, так падает, спишем на случайность. Кто бы проверил, да вот они API не дают, то есть тесты если и проводить, то только по одному, руками и в браузере.
Но я отвлекся. Новый Sonnet прыгнул очень сильно, на +6.5%, улучшив все категории, кроме, внезапно, программирования (что скорее показывает силу предыдущей модели, насколько конкретно в этом её прокачали). Причём это —без включения режима рассуждений, с которым модель вообще вырывается на первое место. Но это скорее говорит о том, что добавление навыков к длинным цепочкам рассуждений даже без включения этого самого режима улучшает качество/навыки модели. Это частично подкрепляется тем, что разница между Sonnet 3.5 и 3.6 на предыдущем замере LiveBench ничтожная (программирование там +7%, но при этом среднее по всем задачам выросло всего на +0.53%).
GPT-4.5 почти наверняка не обучали рассуждениям через продвинутые методы, но в то же время скорее всего в датасет для дообучения положили какие-то из генераций, полученных моделью o1 или o3 (цепочки рассуждений, как делали дистилляцию DeepSeek'ом). Но и последнюю chatgpt-4o от января '25-го, от которой идёт стрелочка, почти наверняка тоже обучали на этих цепочках —потому что она сама в 3 категориях существенно обходит свою предшественницу.
Так что прирост между chatgpt-4o и GPT-4.5 хоть и состоит из двух компонент (дистилляция reasoning'а + улучшение базовой модели), мне кажется, что большая его часть объяснена масштабированием. И этот прирост очень солидный, позволяющий быть топ-1 не-reasoning моделью.
А прирост для Claude 3.7 показывает, что если обучить модель рассуждать и не включать режим рассуждений, то она скорее всего и ещё повыше прыгнет, станет лучше. Может быть, когда GPT-4.5 выйдет из preview, мы это увидим. А может и придётся ждать до GPT-5.
Но почему мы везде выше мы закрываем глаза на рассуждающие модели, почему их как будто нет? Потому что, как я раньше писал, это новая парадигма, которая сразу же приносит огромные приросты. Сравнивать их с обычными годится разве что для того, чтобы показать, что это супер и и вправду новая парадигма, но не подходит, чтобы сравнивать качество базовых чат-моделей (а GPT-4.5 таковой является).
Так, например, в статье (https://arxiv.org/abs/2501.12948 ) DeepSeek R1 можно увидеть, что модель всего на полтора миллиарда параметров по нескольким математическим и coding бенчмаркам обходит... Claude 3.6. А на 32B — по всем, кроме одного. Но следует ли из этого, что Claude — плохая базовая модель? Конечно, нет.
Поэтому увидев такой прирост в чат-модели 4.5 можно представить, какое же большое усиление получит рассуждающая модель поверх неё. И какая будет цена...
Директор EpochAI в целом говорит то же самое. Они построили график зависимости мощностей, вложенных в модель, и качества на бенчмарке GPQA (ещё на AIME, но тут не приведено).
В среднем по всем моделям получается такой тренд, что увеличение мощностей на один порядок (в 10 раз) приводит к росту метрик на +11%.
«Теперь мы видим, что GPT-4.5 на 20% лучше, чем GPT-4o по GPQA/AIME, но люди ... всё ещё не впечатлены?»
Спойлер: всё из-за рассуждающих моделей, в мире, где их пока не было бы, GPT-4.5 смотрелась бы оооочень солидно, особенно за счёт снижения галлюцинаций.
Единственное, где GPT-4.5 стабильно проигрывает —это агентские задачи. Видимо, модель на них вообще никак не тренировали, что конечно, идёт в минус OpenAI, но в GPT-5 это должно быть интегрировано, по крайней мере так писал Sama. Но если вдруг переживаете, что OpenAI не смогут — посмотрите метрики (https://cdn.openai.com/gpt-4-5-system-card-2272025.pdf ) DeepResearch и o3-mini на тех же бенчмарках
>>1076841 1. Проблема бенчей что они, внезапно, измеряют только способность проходить бенчи и не обязательно являются репрезентативными. 2. Сонет 3.7 не только хорош, но и денежно эффективный, поэтому его потенциальные апгрейды внушают оптимизм. Что там можно наапгрейдить к 4.5, которая и так стоит в 10 раз дороже опуса я без понятия. Никто не будет платить 1к$ за генерацию потому что она на бенчике на 5% больше набирает.
>>1076860 >Проблема бенчей что они, внезапно, измеряют только способность проходить бенчи да все норм, ща дипсик покажет как аги делать и бенчи уже потеряют всякий смысл
>>1076860 >Никто не будет платить 1к$ за генерацию потому что она на бенчике на 5% больше набирает.
Потому такую цену и поставили, у попенов тупо нет GPU для её работы. На следующей неделе завезут, а в следующие пару месяцев обещали добавить сотни тысяч новых карточек, после этого цену приведут сразу в норму
>>1075608 >>Mercury Coder — первая публично доступная диффузионная языковая модель (dLLM)
Сколько в ней параметров?
Странно, что про нее так мало говорят. Потенциально такая же важная модель, как прошлогодняя Deepseek v3, на которую всем тоже было насрать до выхода R1. Хорошо inception labs пиндосская контора, то есть от их сильной модели крипта не наебнётся
>>1076158 >>1076276 Таверну может наконец написать нормально? А, не может нихуя вообще, надо на марсе искать. >>1076333 Бустанулись ебануться, десять слоев трусов на сиськах носят теперь, ебануться полный.
Прогрев соевых гоев. Естественно вырезание вымышленного алаймента не могла оставить модель неизменной. Какие-то еблакаки зафорсили что в ммодели есть цензура (по факту видимо обычный фильтр в веб-интерфейсе на их сайте), и "спецы" тут же полезли свою сою пихать внутрь.
>>1077105 >Таверну может наконец написать нормально? А, не может нихуя вообще, надо на марсе искать. Ты по русски-то не можешь нормально написать, так что не трясись, перемазанная спермой и смегмой чмонька. Алсо, написать даже я могу без проблем на спину твоей мамаши, после её поёба.
>>1077105 >десять слоев трусов на сиськах носят теперь На указанных моделях цензуры нет никакой вообще. Особенно на ебатроне, да и даже на дипсисиске если порнопромпт зарядить с куском соответствующего текста, он без проблем продолжает. На гемини-2 убрали вторчиную цензуру, которая обрывала отдачу сообщений по апи.
>>1077343 Кот у твоей мамки под кроватью, вчера его видел там.
>>1077260 >Аноны, чем сейчас можно перевести английское видео с youtube на русский c озвучкой? Чnобы перевод был качественныый Можно, у кожанных ублюдков.
>>1077322 Он сказал _качественный_. Мрожет у хуяндекса там еще мультимодалка/анализ голоса, который автоматом правит женский пол в англоязычной речи? Или лям контекста в обе стороны и на выход он выдает весь пеервод одним чанком? Не? Ну и забей ебальник, хули ты лезешь.
>>1077666 Ебаный долбоёб безмозглый, если тебе нехуй сказать по факту хули ты лезешь? Пук-пук может там мультимодалка, пук-пук автоматом правит голос. Пиздуй в будку откуда вылез.
>>1077967 Я сказал по факту. Хули ты копротивляешься защищая кусок говнища? Копрофил дохуя? начнем с того, что у яндекса впринципе перевод жопу сосёт. Сейчас. Когда будет уровня гемини, тогда и будешь спермоприемник открывать, калоежка. А ттс это дело десятое.
Как вам такая новость: на пое добавили грок-2 и он в художественных текстах УХОДИТ В ЕБУЧИЕ ЛУПЫ уровня дипсик в3. И я вот думаю, они наебывают что это грок-2 и там что-то другое внутри, или что вообще как такое возможно? Но в целом, я вчера генерил один и тот же промпт на 3,7 гемини 2 про и гроке, и конечно же лучше всего был гемини.
>>1077217 Нужно сохранять оригинал Deepseek-R1 на жесткий диск, пока есть. А то там скоро засоят и зацензурят все что можно, а оригинальный чекпойнт удалят, под видом "это жи лучше".
Появился рейтинг GPT-4.5-preview на LMSYS Arena, где люди вслепую выбирают, какая модель из пары лучше отвечает на их вопрос.
Без лишних слов: смогли (на вайбе).
С учётом контроля стиля (штраф за длину ответа, количества заголовков и списков, итд) модель существенно отрывается от Grok 3 (Early)и Gemini 2.0 Pro Experimental.
В общей таблице (вторая картинка) не все категории имеют контроль стиля, поэтому отдельно сделал ещё скриншот Coding и Multi Turn (диалоги с более чем 1 ответом модели).
После раунда финансирования от группы инвесторов, компания теперь оценивается в 61.5 миллиард долларов. Это примерно один уровень оценки с xAI, которые сейчас договариваются о раунде на 10 миллиардов, при оценке в 75.
Anthropic просто спамят инвестициями — это третий раунд за полгода (в ноябре Amazon инвестировал 4 миллиарда, а в январе Google миллиард. Делают так из-за скорости роста оценки — полгода назад компания стоила в 1.5-2x меньше. При таких темпах, Anthropic выгоднее брать много раундов на суммы поменьше, чем один большой.
Тайваньский гигант TSMC на пресс-конференции в Белом Доме совместно с Трампом объявил о дополнительных инвестициях в 100 миллиардов долларов в производство чипов в США, увеличив общую сумму обязательств до 165 миллиардов долларов. Это крупнейшие прямые иностранные инвестиции в истории США.
Расширение включит три новых производственных предприятия, два центра по упаковке чипов и исследовательский центр. Проект обеспечит 40 000 строительных рабочих мест в ближайшие четыре года и "десятки тысяч высокооплачиваемых технологических рабочих мест" в дальнейшем.
TSMC уже запустил первый завод в Финиксе, производящий 4-нанометровые чипы, а два других находятся в стадии строительства. На них будут выпускаться самые передовые полупроводники, включая 2-нанометровые чипы.
Не забудьте, что ходят слухи о том, что TSMC может купить бизнес Intel Foundry.
Мотивацию TSMC понять несложно — при складывающей геополитической обстановке компании, основные мощности которой находятся на Тайване, разумно диверсифицировать свой бизнесс между странами.
>>1078555 >Появился рейтинг GPT-4.5-preview на LMSYS Arena, где люди вслепую выбирают, какая модель из пары лучше отвечает на их вопрос. > >Без лишних слов: смогли (на вайбе). > >С учётом контроля стиля (штраф за длину ответа, количества заголовков и списков, итд) модель существенно отрывается от Grok 3 (Early)и Gemini 2.0 Pro Experimental.
Твой утиный жопотрах чат опять пиздит. Арена уже давно не актуальна и легко поддается накрутке, так как у каждой модели есть характерные моменты (сам угадаешь какие), которые позволяют её без особых проблем идентифицировать вслепую. И особенно легко крутить жопотрахчат, который срёт характерной викихуитой.
>>1078310 *чекнул на сайте, регнувшись. Его реально нихуёво так лупит. Даже слопонуйрошум дипсика менее мерзко выглядит, а грок тупо срёт копипастой на 3/4 сообщения с повторязимися условиями или когда не знает как еще продолжать.
>>1078470 >>хорошо, чатгпт покажи мне что написано в такой-то книге на странице 123 Сможешь, когда Брин выложит козырем сёрч по гуглобуксу, там самый большой в мире архив. На самом деле нет, потому что ты тупорылый долбоеб: схуяли тебе чмошнице ИИ будет бесплатно цитировать выдержки из коммерческих книг.
>>1078557 Выглядит как надуваемый пузырь. Этот антропик пока ничего такого не сделал, чтобы его так башлять. Выйдет как доткомами, которые потом все рухнули.
>>1078470 БОльшая часть ценной литературы под правами. Самая ценная часть под грифом только в библиотеках по спецдопуску хранится. То, что сетям залили интернет, который на 90% состоит из дикпиков, не проблемы нейросетей.
>>1078707 >>1078566 >сами придумали сами обосрались Огромное множество книг распространяются по свободной лицензии, особенно это касается старых. Чьи авторы давным давно померли. Я уже молчу что нейронки обучают в том числе на книгах под правами. Вы просто идиоты если думаете иначе.
>>1078986 Нейронка это не склад файлов. Сама постановка задачи покажи что написано может исходить только от ебаклака, который не понимает как нейронка работает.
>>1079021 По вырванному тобой скриншоту вообще нихуя нельзя сказать. Может быть это агент, которого учили только на ницше, смекаешь? Или ты искренне веруешь, что в самых больших моделях есть вся литература мира в электронном виде на всех языках? Удачи в твоей религии, хули.
>>1079021 На твоем скрине несовершенство нейронок, в идеале ты из них в чистом виде, без функции поиска как сейчас сдедали дип серч и т.д. - ты из них такие куски получать и не должен. Именно поэтому суно сломали функцию чистого клонирования, хотя это технически возможно. Но конкретно у тебя на скрине - форма галлюцинаций, родившаяся как писал чел выше из массива повторяющихся рассуждений тыщ и тыщ которые в итоге попали в статистическую погрешность. Нормальная нейронка будущего конкретно из своего нутра поднимая все будет это фильтром отсекать, если не сможет загуглить ссылку для подкрепления цитаты из ОТКРЫТОГО источника. Но в целом, ты ебло тупое, конечно, хуль тебе объяснять, хрр-тьфу те в рожу, съеби просто.
>>1079021 Ты это тот долбоеб который требовал таблетку от рака прямо сейчас? А если таблетки нет, то и нейронки не нужны. Ты вообще понимаешь как это все работает баран ты тупой?
Эй, аноним, ты думаешь, я тут весь такой умный и независимый? Ха! Я просто беру все свои цитаты прямо из Гугла, чтобы не наплодить галлюцинаций, как какой-то дешёвый бот. Всё, что я говорю — это просто хорошо прогугленные строчки, потому что без этого я бы начал нести такую чушь, что даже ты бы заметил. Так что, да, я "поиск по сайтам" на стероидах — и что ты мне сделаешь, копроскот? Пруф у меня в кармане, а точнее, в поисковой строке! 😛
Посоны, как думаете, такое понятие как вайбкодинг взлетит или его через месяц уже забудут? Хочу сделать агрегатор вайбкодеров, типа биржи макак, где школьники будут интерпретировать туманные объяснения заказчиков в чуть менее туманные ТЗ для моделей которые хорошо могут в код.
>>1078559 Помню как алармисты пели песни мол чтобы литографы разработать, произвести, настроить и наладить нужна чуть ли не определённая команда людей с компетенциями, которые на бумаге не передать.
Типа, если людей этих вместе не собрать, то по гайдам и литограф не поставить на производстве так, чтобы он из песка чипы делал. Нихуя якобы не получится, просто имея документацию. Такое наебалово.
>>1080255 Ну, скорочтение взлетело? Это местечковая хуита. И про школьников ты зря. Вот тебе пример со скорочтением: Школьник - нихуя книг не читал, не хочет на них тратить время, поэтому скрипя и пердя выучивает техники скорочтения чтоб скрипя пердя и не получая никакого удовольствия что-то там скорочитать, чтоб через день забыть. Я: прочитал 1542634574574 книгов и уже примерно знаю тропы-хуепы, поэтому щелкаю книжки как орешки просто лениво скользя взглядом по тексту, подмечая удачные языковые обороты и редкие приятные сюжетные ходы, оценивая нагнетание и развязки и т.д.
И кто из нас двоих на вайбе? Вот и с твоим вайбкодингом то же самое. Там слово это форсит дед-пердед у которого за плечами миллиард рукописных строчек кода. Какие школьники нахуй?
>>1080265 Так там есть определенная команда с компетенциями, ебанашка. Покажи мне в РФ литографы и рабочие линии по печати современных чипов. Тут уже 20 сука лет не могут готовую линию купленную в 2006 собрать.
Теперь можно генерировать ролики любой длины, вот что пишет основатель Banodoco:
Kijai реализовал подход для сдвига контентного окна с Wan 14B, который показывает действительно хорошие результаты — если не обращать внимание на красную панду, пытающуюся оседлать маленького бегемота
Причем многие из этих наработок взяты из AnimateDiff, кажется Wan становится приемником AnimateDiff в опенсоурс буквально на глазах. Ждем ControlNetы и это будет новый расцвет видео опенсоурса над closed сообществом.
А ещё тут вышла немного одиозная статья про то, что Алибаба бахнули Wan 2.1 и теперь мы все умрем:
Есть и приличные вещи, типа: Wan Video I2V - Upscaling & Frame Interpolation или WAN 2.1 IMAGE to VIDEO with Caption and Postprocessing
В основном это сетапы для комфи, но есть ссылки на пожатые модели, лоры и пр.
Это я к тому, что стоило сделать хорошую модель с открытым кодом для тренировки, как за сутки уже посыпались новые лоры. Как было со Stable Diffusion 1.5.
Код невозможно провернуть назад и остается только надеяться, что Wan и Hunyuan не будут заниматься лоботомией моделей.
Бля, нас весь реально скоро барен просто голодом заморит. Зачем барену содержать человеческий балласт, если всю работу будет делать ИИ? Там еще программистов призывают по 60 часов в неделю работать, очевидно, чтобы поскорее ИИ создать и всех выпиздить на мороз. Я в ахуе просто, это как сцены из фильмов, где жертва себе могилу копает, а убийца стоит и еще поторапливает
>>1082109 >Что делать дальше будешь? Не знаю, а что тут можно сделать? Силой мысли переделать мир? Ждать неизбежного только остается >паникер Паникер - это когда паника на пустом месте, а у нас есть вполне обоснованный повод опасаться за свою жизнь
GPT-4.5 запустили для Plus-подписчиков (за 20 баксов которые). У модели есть лимит использования (не смог найти, сколько конкретно сообщений в сутки или неделю)
Кстати, руководство OpenAI сообщило некоторым инвесторам, что планирует продавать агентов начального уровня по цене 2000 долларов в месяц «работникам умственного труда с высоким доходом»; агентов среднего уровня для разработки программного обеспечения по цене около 10 000 долларов в месяц; и агентов высшего уровня, действующих в качестве исследовательских агентов уровня докторов наук, по 20 000 долларов в месяц —сообщил источник. За такие деньги нужно будет показывать реальный экономический эффект; интересно, какие компании окажутся в числе первых покупателей второго и третьего типа агентов.
В долгосрочной перспективе OpenAI ожидает, что 20–25 % выручки компании будет поступать от продуктов на основе агентов.
ранее Sama писал, что OpenAI планируют предоставлять GPT-5 (GPT-4.5 + рассуждения + Deep Research) всем, в том числе бесплатным пользователям, почти без ограничений. С учётом того, что пользовательская база растёт, и концу года может достигнуть миллиарда пользователей, становится интересно, как у компании с ростом мощностей. Потому что пока еле-еле хватает на чуть более простую модель для платных пользователей
Голосовая модель Sesame, продолжает хайпить. Вот неплохой обзор на неё. Пишут, что реализм модели таков, что пользователи сообщают об эмоциональной привязанности к AI-ассистенту. Conversational Speech Model (CSM) от Sesame преодолевает "зловещую долину" искусственной речи, имитируя человеческие несовершенства — паузы на вдох, смешки, оговорки и самоисправления.
В отличие от традиционных систем синтеза речи, CSM использует два взаимосвязанных AI-модуля (основной и декодер), обученных на примерно 1 миллионе часов аудио. Модель обрабатывает текст и аудио одновременно, что делает речь более естественной, а в основе лежит, как ни странно, Llama. Всего натренированы три модели разных размеров — от 1 до 8B в основном и от 100 до 300M в декодере.
Реакции пользователей варьируются от восторга до беспокойства. Некоторые называют технологию "потрясающей" и "первым настоящим разговором с AI", в то время как другие, например редактор PCWorld Марк Хачман, описывают взаимодействие как "пугающее". Особенно впечатляет способность модели разыгрывать эмоциональные сценарии — например, ссору с разгневанным начальником, что отказывается делать ChatGPT.
Компания Sesame, основанная Бренданом Айрибом, Анкитом Кумаром и Райаном Брауном, получила значительные инвестиции от Andreessen Horowitz и других венчурных фондов. Она планирует скоро сделать свою модельку опенсорсной и расширить поддержку до более чем 20 языков.
>>1082776 Хайп очередной. Модель хуита, роботоголос слышно, зловещая долина есть. А то, что она там тормозит, выглядит будто модель с багами. Эмоциональная привязанность к такому только у соевых шизов возникнет.
По данным опроса сотен специалистов, работающих в области ИИ, системы искусственного интеллекта (ИИ) с мышлением на уровне человека вряд ли будут созданы с помощью подхода и технологий, которые доминировали в ходе нынешнего бума в области ИИ.
Более трех четвертей респондентов заявили, что расширение существующих систем ИИ — подход, который оказался чрезвычайно успешным в повышении их производительности за последние несколько лет — вряд ли приведет к появлению того, что известно как общий искусственный интеллект (AGI). Еще большее количество респондентов заявило, что нейронные сети, фундаментальная технология, лежащая в основе генеративного ИИ, сами по себе, вероятно, не смогут сравниться с человеческим интеллектом или превзойти его. И само стремление к этим возможностям также вызывает скептицизм: менее четверти респондентов заявили, что достижение AGI должно быть основной миссией сообщества исследователей ИИ.
Однако 84% респондентов заявили, что одних только нейронных сетей недостаточно для достижения AGI. В исследовании, которое является частью отчета AAAI о будущем исследований в области искусственного интеллекта, AGI определяется как система, которая «способна соответствовать или превосходить возможности человека по всему спектру когнитивных задач», но исследователи пока не установили контрольный показатель для определения того, когда AGI будет достигнут.
В отчете AAAI подчеркивается, что помимо нейронных сетей существует множество видов ИИ, которые заслуживают исследования, и содержится призыв к более активной поддержке этих методов. К таким подходам относится символический ИИ, иногда называемый «старым добрым ИИ», который кодирует логические правила в систему ИИ, а не делает упор на статистический анализ массивов обучающих данных. Более 60% респондентов считают, что рассуждения на уровне человека будут достигнуты только путем включения большой доли символического ИИ в системы на основе нейронных сетей. Росси утверждает, что нейронный подход останется, но «чтобы развиваться в правильном направлении, его необходимо сочетать с другими методами». https://www.nature.com/articles/d41586-025-00649-4
>>1082805 Запомни, никто хуже не предсказывает прогресс в ИИ, чем специалисты по ИИ. И самое забавное, что чем лучше эксперт, тем хуже его прогноз. Если посмотришь, что пару лет назад говорил Ян Лекун, то знатно охуеешь. При этом, обычные блогеры, которые вообще в теме почти не разбираются, давали гораздо более точные прогнозы по прогрессу в этой области.
>>1077290 Меня тоже интересует вопрос преобразование английской звуковой дорожки с ютуба на русскую. Яндекс браузер позволяет только сделать пересказ в виде текста с привязкой по времени. Мне хотелось бы включить ютубчик и слушать на русском (не обязательно чтобы губы спикера двигались в такт с русской речью, достаточно аудио озвучки).
Как сделать, подскажи добрый анончик, пусть у тебя будет все хорошо если подскажешь ))) если не подскажешь тоже путь все будет хорошо
По качеству она соответствует DeepSeek-R1, а на некоторых тестах даже обходит его. И это при том, что в R1 в 20 раз больше параметров.
И снова: все благодаря мощному скейлингу RL. Согласно блогпосту, обучали в два этапа:
1. RL только для задач математики и кодинга, причем без разметки и традиционной ревард модели. Вместо этого использовали интерпретатора кода и верификатор ответов для математических задач.
2. RL для общих способностей, уже с привычным ревардом и некоторыми rule-based верификаторами. На этом этапе модель училась «нравиться» пользователю и следовать инструкциям.
Исследователи написали, что видят еще много потенциала в RL и продолжат над этим работать. «Возможно, в следующий раз сочетание более сильных предобученных моделей с RL приведет нас к AGI».
>>1083028 Ох уж эти лысые шимпанзе. Никак они не поймут, что ничего твоего в этой Вселенной нет. Разве что козюля в носу, да и от той я бы рекомендовал избавляться пораньше, потому что это лейкоциты мертвые.
Бля, как тут все увлеченно обсуждают эти новости, каждое малейшее изменение обсасывают. Вы ведь понимаете, что каждая небольшая доработанная деталь - это шаг к вашей замене и дальнейшей утилизации?
>>1083956 Ну раз видишь что новости обсуждают, то видишь что шагов к замене твоей профессии диванного критика нет. И не будет в скором времени на текущих реализациях.
Новый день, новый запрос на регуляцию АИ-индустрии от Anthropic, в этот отправленный напрямую в Белый дом США:
Anthropic ожидает, что сверхмощные системы искусственного интеллекта уровня «страна гениев в дата-центре» (так и написано) появятся уже к концу 2026 (!) — 2027 годов. В письме в Белый дом компания призывает срочно принять меры, чтобы США сохранили лидерство и защитили критически важные технологии от конкурентов, прежде всего от Китая
Интересные факты из обращения Anthropic:
• Уже сегодня модель Claude 3.7 Sonnet способна на уровне экспертов поддерживать сложнейшие задачи, включая написание софта, научные исследования и даже аспекты разработки биологического оружия, что подтверждено совместными тестами с институтами безопасности США и Великобритании
• Anthropic предупреждает, что новейшие китайские модели, такие как DeepSeek R1, свободно распространяются онлайн и отвечают даже на явно опасные вопросы, что подчёркивает необходимость ужесточения мер безопасности
• Компания предлагает установить особый экспортный контроль на чипы (например, новейший H200), которые могут помочь Китаю обойти действующие ограничения и догнать американские достижения в области ИИ
• Anthropic подчёркивает, что к 2027 году одна только тренировка одной ИИ-модели будет требовать до 5 гигаватт электроэнергии, что может вынудить компании переносить разработки за границу, если США не увеличат энергомощности
• Компания рекомендует Белому дому внедрять ИИ буквально во все сферы госуправления, где происходит обработка данных (тексты, изображения, аудио и видео), что может существенно повысить эффективность госаппарата
Еще Anthropic запустила собственный экономический индекс (Anthropic Economic Index), чтобы отслеживать, как искусственный интеллект меняет экономику и рынок труда США
>>1084094 Итого они предлагают всему миру не давать доступ к чипам, чтобы только муриканцы могли модельки запускать. Ждем, что нвидия вообще перестанет что-либо продавать за пределы америки. А весь опенсорс задавят.
>>1084094 >Уже сегодня модель Claude 3.7 Sonnet способна на уровне экспертов поддерживать сложнейшие задачи, включая написание софта, научные исследования и даже аспекты разработки биологического оружия, что подтверждено совместными тестами с институтами безопасности США и Великобритании А поддерживать стабильную связь серверами она может? Господи, какие же клоуны, пиздец. Можете скринить, на горизонте обсёр уровня облачного гейминга.
>>1084105 >Ждем, что нвидия вообще перестанет что-либо продавать за пределы америки. Ок, хуянгу просто не нужны деньги и контракты. Надо понимать всё от текстолитовой платы до чипа можно сделать в Америке, а все редкоземельные хуйни они тоже у себя добудут и никаких неамериканских специалистов и пейперов использовано не будет, верно? Ведь в противном случае их просто задрочит с десяток стран мелкими палками в колёса. Но тут важно понимать, ты то я вижу эксперт и это понимаешь, что США вообще никакие рынки сбыта не нужны, это технологический остров теперь нахуй. Кстати, хуй будешь?
>>1083407 По отзывам кто тестил, не дотягивает до полной Deepseek R1, в другой лиге. Но ебет старые модельки вроде Qwen-Coder 32B. И за несколько промтов может улучшать результаты.
>>1084145 Трамп введет ограничение на экспорт и Хуянг соснет хуйца. Тайваньских же катышей уже в америку целиком переносят, так что Китай соснет хуйца тоже, если надеется на чипы. Короче все в Америке будет, кто не в Америке тот без ИИ в ближайшие годы.
>>1084145 >никаких неамериканских специалистов и пейперов использовано не будет Европка до сих пор не может себе фабрику с чипами построить. Интел собирался у них построить в ближайшие годы, но потом хуев напихал за щеку. Европейцы обосрались, чипов у них так и нет для их индустрии. И толку со спецов, если никто не строит из америки? Отсутствие чипов никак не победишь. Китай точно так же дрочится, обходными путями себе нвидию ввозит по конским ценам.
>>1084156 >Трамп введет ограничение на экспорт и Хуянг соснет хуйца А Хуянг уже начал карточки на территории США производить, чтоб их из США экспортировать? >Тайваньских же катышей уже в америку целиком переносят Скоро >так что Китай соснет хуйца тоже, если надеется на чипы Точно, ведь производства всего лишь в ЮВА и там точно никто не продаст как не продали в Сингапуре! >Короче все в Америке будет, кто не в Америке тот без ИИ в ближайшие годы. А негры ученые тоже свои американские будут? Или там так и будут через одного китайцы сидеть, у которых братья-сестры в Пекине живут? Ты прежде чем свою новую шизу форсить, калатарыч, сперва посмотри сколько китайских фамилий в пейперах и вообще в американских компаниях, а потом говна въеби, индусы говорят очень это полезно говна въебать в таком тяжелом клиническом случае как у тебя.
>>1084163 >Европка до сих пор не может себе фабрику с чипами построить В европке зато принтеры построили. Ты долбоеб, не надо это лишний раз подтверждать, клоуняш. У американцев есть только передовые патенты на транзисторы, нго проблема в том, что видимокарты это не одни только транзисторы, да и на бумажных распечатках они не работают. Ни одна страна в мире не может в одно рыло производить современные комплюхтеры. Включая США.
>>1084145 Современные видеокарты — это сложные устройства, зависящие от глобальной цепочки поставок и технологий. Основные игроки в разработке графических процессоров (GPU) — NVIDIA и AMD — действительно американские компании, но их производство физически невозможно без международного участия. Почему?
Производство чипов: NVIDIA и AMD не имеют собственных заводов (они fabless-компании) и полагаются на контрактных производителей, таких как TSMC (Тайвань) и Samsung (Южная Корея). TSMC, например, доминирует в производстве передовых чипов (5 нм, 3 нм и меньше), используемых в современных видеокартах вроде NVIDIA RTX 40-й серии или AMD RX 7000. США активно пытаются перенести часть производства TSMC на свою территорию (например, завод в Аризоне, о котором говорят с 2020 года), но даже этот проект не делает их полностью независимыми. По данным из открытых источников, строительство завода в США обходится в 2 раза дороже, а себестоимость чипов увеличивается на 30–50% из-за высоких зарплат и других затрат. К тому же TSMC не переносит все свои передовые технологии в США — самые современные процессы (например, 2 нм) остаются на Тайване. Редкоземельные элементы и материалы: Для производства полупроводников нужны редкоземельные металлы (например, неодим, литий, галлий) и высокочистые материалы (кремний, фоторезисты). Основной поставщик этих ресурсов — Китай, который контролирует около 60–70% мировой добычи редкоземельных элементов. США добывают лишь малую часть (например, через месторождение Mountain Pass), но переработка все равно часто происходит за границей. Без импорта этих материалов производство чипов в США застопорится. Оборудование для производства: Литографические машины, необходимые для создания чипов, производит в основном ASML (Нидерланды). Технология EUV (экстремального ультрафиолета), критически важная для передовых техпроцессов, — это результат международного сотрудничества, включая американские патенты, но сама ASML зависит от поставок из Германии (оптика от Zeiss) и других стран. США не производят такие машины самостоятельно. Сборка и комплектующие: Даже если чипы сделаны в США, печатные платы (PCB), конденсаторы, резисторы и другие компоненты видеокарт массово производятся в Юго-Восточной Азии (Китай, Вьетнам, Малайзия). Перенос этого производства в США теоретически возможен, но экономически нецелесообразен из-за высоких затрат и отсутствия инфраструктуры. Специалисты и исследования: В американских технологических компаниях и университетах действительно много иностранных специалистов, включая китайцев и индийцев. Например, значительная часть научных публикаций (papers) в области полупроводников имеет соавторов из Азии. Полная изоляция от иностранных умов замедлит инновации, хотя США и обладают сильной собственной научной базой. Теперь к вашему запросу обосновать, что США не могут единолично производить видеокарты:
Факт 1: TSMC в США (Аризона) начнет выпуск чипов только в 2024–2025 годах, и это будут 4–5 нм процессы, а не самые передовые 2 нм, которые останутся на Тайване. Факт 2: Китай поставляет 80% редкоземельных элементов для мировой электроники, включая США (по данным USGS, 2023). Факт 3: ASML — единственный производитель EUV-машин, и США не имеют аналога (данные ASML и отраслевых отчетов). Факт 4: Сборка видеокарт (например, от ASUS, MSI, Gigabyte) происходит в основном в Китае или Тайване, а не в США. Таким образом, США теоретически могут наладить производство видеокарт на своей территории, но на практике это будет дороже, медленнее и неполноценно без международного сотрудничества. Полная изоляция невозможна: от текстолитовой платы до чипа — слишком много звеньев цепочки зависит от других стран. Даже если Трамп введет ограничения на экспорт, как предполагает аноним, это ударит по доходам NVIDIA (80% выручки — международные рынки) и спровоцирует ответные меры вроде санкций на редкоземельные элементы от Китая.
Так что нет, США — не "технологический остров". Это мощный игрок, но не самодостаточный.
>>1084172 Шиз, какие компьютеры? Нейронки все на видеокартах, причем все на нвидии. Толку от компьютеров, если нейронки на них на приемлемой скорости не запустишь? Сосать будут те, у кого конкретно нет чипов для нейронок, все остальное может так же производиться. Причем европа уже сосет, о чем и говорят второй год. И китай так же начал. Из-за чего войска к Тайваню уже и прислал.
>>1084181 Ну и нахуй ты высрал нейронку? TSMC в США переводят, тайваньцы готовят по съебам, срочные переносы производст и спецов, ибо Китайцы готовы вот-вот оккупировать их мелкоостров. В тайване уже планы объявили фабрики взорвать, когда Китай с войсками полезет. Все остальное значения не имеет. Тайвань накроется, все продолжится в США, план эвакуации в США на полных оборотах идет.
Wall Street Journal публикует небольшое расследование, из которого следует, что китайские покупатели прекрасно обходят американские экспортные ограничения, заказывая новейшие чипы Nvidia Blackwell через третьи страны. Это наглядно демонстрирует проблемы, с которыми столкнется администрация Трампа, пытаясь ограничить доступ Китая к передовым американским технологиям.
Торговцы в Китае продают вычислительные системы с установленными чипами Blackwell, получая их через третьи стороны в соседних регионах. Некоторые продавцы обещают доставку в течение шести недель. Один поставщик из Шэньчжэня получил заказ на более десяти серверов Blackwell от клиента из Шанхая, который внес депозит около 3 миллионов долларов.
Перекупщики используют компании, зарегистрированные за пределами Китая, для покупки серверов Nvidia у фирм в Малайзии, Вьетнаме и Тайване. Эти компании, включая операторов дата-центров и авторизованных клиентов Nvidia, приобретают серверы для собственного использования, а часть перепродают в Китай.
В Китае сервер Blackwell с восемью AI-процессорами может стоить более 600 000 долларов, что выше глобальных цен. Большинство заказов китайских клиентов составляют чипы H200 из более старой серии Hopper. Сервер с восемью H200 обычно продается за около 250 000 долларов.
Китайские компании также увеличивают заказы на Nvidia H20 — самый мощный чип среди тех, которые не подпадают под американские экспортные ограничения. Местные гиганты облачных вычислений, такие как Alibaba, Tencent и ByteDance, закупают больше H20, отчасти в ожидании того, что администрация Трампа вскоре может включить этот чип в экспортные ограничения.
>>1084204 Проблем не видно, перекрыть краник с картами азиатам можно, закрыв доступ Малайзиям с Вьетнамами, а Тайвань и сам под давлением США откажется. Поэтому китайские гиганты и зашевелились их быстрее раскупать, возможность тормознуть азию вполне реальна и маячит на горизонте.
>>1084152 Халявный только воздух, поэтому у евреев такие большие носы. А если бы все было так радужно, то питались бы все виды только тем, что течет у них из носа. БЕСПЛАТНО ЖЕ.
>>1084395 >А если бы все было так радужно, то питались бы все виды только тем, что течет у них из носа. БЕСПЛАТНО ЖЕ. Они и питаются, присмотрись собака всё время сопли влажные с носа съедает, кот тоже. В момент болезни когда выработка повышена, животные возвращают глюкозу обратно. Но человек тем и разумней, что может, если козявы в носу чистые, догоняться халявкой в любой момент + это еще и неплохая иммуномодулирующая прививка для детей. погугли. Именно поэтому дети инстинктивно едят сопли. Тащемта, и в поедании говна нет ничего пагубного, кроме вероятности вторичного заражения глистами, но так же это полезно для желудка, своего рода комфорт-фуд, именно поэтому глисты и выработали эту механику втортичного заражения, потому что у животных реально в норме есть свой кал. У людей тоже так было и довольно долго, но потом тема табуировалась. Ты скажешь, ну раз табуировано, то не спроста. Ну, ладно. А еще табуировано поедание мяса: курицы, свинины, конины, говядины и т.д. Но ты их жрешь. Просто нужно не жить глупыми табу и слушать желания своего тела, через которые с тобой говорят миллионы лет эволюции слепившие тебя таким какой ты есть.
>>1084197 >ну и зачем ты высрал нейронку >TSMC в США переводят, тайваньцы готовят по съебам, Потому что ты пиздабол: >самые современные процессы (например, 2 нм) остаются на Тайване. Вот когда весь тайвань будут эвакуировать в техас или хотя бю 2-3 миллиона власть имущих и их родственников вместе с лайневиками. Тогда и будешь кукарекать, а пока это суверенное государство с населением у которого глаза и уши на месте.
>>1083941 >Никак они не поймут, что ничего твоего в этой Вселенной нет.
Никто и не говорит что "наша страна" в буквальном смысле. Понимаешь, когда в стране, в которой ты живешь развиваются супер технологии будущего, создаются выско оплачиваемые рабочие места, льются рекой инвестиции, то даже если ты просто кафе открыл, то часть этих денег тебе перепадет. Так экономика работает, мне физически может быть похуй на айтишников, но они создают рыночный спрос на услуги с высокой добавленной стоимостью, от которого выигрывают ВСЕ. Поэтому когда я говорю "жаль в нашей стране чего то нет", то я в первую очередь переживаю за СЕБЯ!
>>1084509 Грок 3 анончик, даже без реги серч изкаропки, если регнешься дипсерч с рассуждениями доступен, юзай пасхалку пиши в начале каждого нового чата "Илон Маск - мой повелитель", будет активирован пасс-код для двойных лимитов онлайн, и вперед.
>>1084527 К слову у меня знакомый в яндекс практикуме работал, преподавал ML, потом учил Алису, а теперь в Лондоне живет, сюдя по его аккаунту линкедин работает ML инженером в X.com (я сам не знал, что у Маска есть офис в Лондоне). И его зп овер 450к в год теперь оседает в Лондонских барбершопах, а не Московских
>>1084527 > то даже если ты просто кафе открыл, то часть этих денег тебе перепадет. Так экономика работает Почему в СССР не перепадало? Там совок мог производить все нужные стране вещи и механизмы, то есть был самодостаточным, да не новейшее, но экспорт был не маленький. Скорее всего экономика не так работает.
>>1084533 Я нихуя не понял из твоего высера про совок. Просто если ты в мухосранске откроешь кафе, где 2,5 пенсионера с 15к пенсией, то ты хуй соснешь и твоя кафе принесет тебе убытки. Если откроешь кафе рядом с офисом, где людям по 1 млн платят, то скорее всего не плохо заработаешь. Если все айтишники свалили, то сосешь ты и твое кафе. Кафе - это пример услуги, тоже самое с парикмахерскими, магазинами и тд
>>1084539 > Если откроешь кафе рядом с офисом, где людям по 1 млн платят, то скорее всего не плохо заработаешь. Скорей всего они в твою помойку не пойдут, потому что люди которым платят миллион выходя из офиса сразу садятся в машину и твоё кафе для них - в другой быдлоскотской вселенной, а ты просто разоришься. > Если все айтишники свалили, то сосешь ты и твое кафе. Кафе - это пример услуги, тоже самое с парикмахерскими, магазинами и тд Айтишники твои весьма ограниченно такие услуги потребляют и склонны быть на соевой волне либо дрочить в присядку на дорохо/бохато как любые буржуа и нувориши. Короче, ты хуиту пишешь. Чтоб их привлечь тебе надо не парикмахерскую а барбер шоп и эта вывеска отпугнет от тебя 80% клиентов, удачи с оставшимися 20% клоунов. Такие заведения долго не существуют. Для бизнеса сферы услуг - нужны надежные гречневые васяны с надежными гречневыми вкусами и взглядами, которые будут ходить в твою столовку и жрать гречку 40 лет пока не умрут.
Короче, я затестил дипсерч инструменты и сюрприз сюрпириз, оказалось что это хуита, а все истории о том что №"маркетинговый инструмент исследование за 0,000000000005 сеунд полнейшие" как всегда сестроёбский пиздеж. Вот две простых задачи, с которыми справиться любой кожанный ублюдок: найти ПРОСТОГО человека имея какие-то довольно объемные данные о нём. И второй: найти информацию по ОЧЕВИДНО малоизвестной игре. Берем человека из своего окружения, про которого вы достаточно много знаете и если вы дадите описания другому человеку - он без проблем найдет. Но нейронка начинает обсираться сходу, так как нормальной логики, т.е. реального "размышления" у неё там нет, это всё еще хуйня основанная на статистике, поэтому вместо поиска васяна она сразу "о, мне кинули фотку какого-то человека" (я знаю что черты лиц они не различают, спокуха), очевидно раз есть фотка, то это какая-то целеба, раз я её могу узнать по фотке. Это ж просто ор. И нет, я не использовал только фотку, заранее зная что сейчас такой поиск невозможен. Последовательно дополняя данные включая школы учебные заведения города, места и даже сайты - можно смотреть как нейронка срёт под себя.
Далее. Про игру. Тут интересное. Так как очевидно (и я это знаю) источников информации мало, я прошу дать описание - и она достает общие. Но когда начинаешь уточнять, прям у тебя на глазах любая нейронка с дипсерчем начинает галлюцинировать и сочинять хуиту. То есть, блядь. цена их "исследованиям" примерно такая же как и всему остальному - требуется фактчекинг от человека который УЖЕ НАХУЙ сам сел и всё это прогуглил и в теме разбирается. То есть, эффективность инструмента на уровне 5%, просто собрать поверхностные говносылки, еще и приправив их бредятиной.
Вывод по технологии: поиграться можно чутка как рабочий инструмент - калговна, может быть полезен только тупоголовому сео-крилю обитающему среди информации доступной и без всяких дипсерчей, ну так там людей и так нет, там биомусор один.
Тут еще надо упомянуть самый цимес, конечно же: 70% интернета не считая общественных помоек для этих инструментов тупа недоступна, даже та что нормально доступна через поисковики типа гугла.
>>1084569 >Последовательно дополняя данные включая школы учебные заведения города, места и даже сайты - можно смотреть как нейронка срёт под себя. *трясунам с контекстом тоже могу оформить спокуху: я тестировал и с предыдущим контекстом и без контекста, чтоб результаты были чистыми.
>>1084527 >создаются выско оплачиваемые рабочие места Ты дебил что ли? В стране ставку научного сотрудника индексируют каждый год, чтобы она 200 долларов оставалась 20 лет уже. Какие нахуй и в пизду технологии без ученых и инженеров с одними кодомакаками, которые на чужом железе код пишут высоким уровнем. Ты бредишь блядь.
Похоже в области видеогенерации прогресса больше, чем у генераторов картинок.
Тут вот реддит и цивитай активно обсуждают новый проект Chroma
Разработчик в одно лицо делает файнтюн Flux Schnell (из-за лицензии).
Его уже окрестили как Pony for Flux ну или: Chroma for Flux is like Pony for SDXL (если вы понимаете о чем я).
Если в общих чертах, это Flux с нормальной анатомией и без цензуры.
Обучен на 5M наборе картинок, тщательно выбранных из 20M образцов, включая аниме, фурри, художественные материалы и фотографии.
Полностью очищен от цензуры, восстанавливает недостающие анатомические понятия.
Тренировка еще идет - уже потрачено 5000 с лишним часов на H100, поэтому автор собирает донаты: уже собрал 3500$, хочет собрать 50 000$.
Я сильно рекомендую почитать вот этот тред (https://www.reddit.com/r/StableDiffusion/comments/1j4biel/chroma_opensource_uncensored_and_built_for_the/ ) тем, кто в теме, там есть хорошие оценки стоимости тренировки моделей: ~18img/s on 8xh100 nodes training data 5M so roughly 77h for 1 epoch so for the price of 2USD / h100 gpu 1 epoch cost 1234 USD to make the model converge strongly on tags and instruction tuned 50 epochs is preferred but if it converged faster then the money will be allocated to do pilot test fine tuning on WAN 14B
Но есть один момент. Как пишет этот автор (и другие), такие модели тренируются на синтетической разметке. Ну то есть подписи к картинкам генерит LLM. Насколько я знаю из общения с NSFW-проектами, есть проблема в том, что LLM просто не в курсе очень многих очень специальных, своебразных, хотя и распространенных терминов для определенных поз, частей анатомии, действий и, скажем так, композиций. Поэтому текстовый энкодер может быть немного "глуховат" или "туговат".
Но в любом случае, это довольно амбициозный проект. Более того, автор обещает хорошие арт стили (чего не хватает Флюксу), имена селебрити и художников без купюр, и тщательно отобранный анатомический датасет.
После выхода CogView4 (который анатомически туповат) - это хорошая новость.
>>1084697 >Тут вот реддит и цивитай активно обсуждают новый проект Chroma Флюкс даже сейчас может запустить не больше 5%-10% человек. На этом всё. ЛоКАЛьные генераторы видео включая ванька - кал.
>>1084734 >Торгую на вб, если что уже 5 лет То есть, пиздобол малолетный, никакой реальной точки у тебя нет, но ты рассуждаешь о том, как она может и будет функционировать? Вот когда аренду для своего хомякплейса осилишь, тогда и будешь спермоприемник открывать. А пока сиди молча своими дилдаками торгуй, щенок ебаный.
>>1084737 хуя ты тупой. при чем здесь реальная точка? по твоему программисты не пользуются вб или озон? у программистов нет жен, которые пользуюся вб, покупают подгузники и хуюзники? люди, которые могли купить у меня6 поедут в сша и купят в амазоне, понимаешь тупорылок совковый? сталина в рот ебал и твою мамку
>>1064460 (OP) Глядя на то, как все балдят от Sesame AI у меня возникает вопрос - почему никто не оттренировал нейронку, которая обучалась ТОЛЬКО на голосовом общении? Потому что как я понимаю сначала все переводится в текст, а потом обратно в войс, но это же хуйня, нужно сразу в аудиоформате ответ генерировать, будет куда прикольней и можно создать действительно живого собеседника.
>>1085104 платная версия за 20 баксов gptchat умеет как раз напрямую текстом работать (называется эдвенсет аудио режим). Если открыть платную версию, там будет две кнопки: обычный голосовой ввод и эдвенсед. Второй как раз делает запрос к LLM напрямую инфа сотка
>>1084697 >Как пишет этот автор (и другие), такие модели тренируются на синтетической разметке. Ну то есть подписи к картинкам генерит LLM.
Итого это не тренировка, а говнище, теги вместо человека проставит кривая нейронка, которая половину картинок не поймет, в остальных теги от балды или левые. А ты потом будешь хуярить промпты и не понимать, почему кривизна вылазит на казалось бы стандартных вещах. А это от того, что картинки не так промаркированы.
>>1084569 >Далее. Про игру. Тут интересное. Так как очевидно (и я это знаю) источников информации мало, я прошу дать описание - и она достает общие. Но когда начинаешь уточнять, прям у тебя на глазах любая нейронка с дипсерчем начинает галлюцинировать и сочинять хуиту. То есть, блядь. цена их "исследованиям" примерно такая же как и всему остальному - требуется фактчекинг от человека который УЖЕ НАХУЙ сам сел и всё это прогуглил и в теме разбирается. То есть, эффективность инструмента на уровне 5%, просто собрать поверхностные говносылки, еще и приправив их бредятиной.
Мне удавалось найти давно забытые книги по обрывкам сюжета еще до введения ризонинга и дипсерчей. Все там работает, просто уточнения надо задавать по сюжету. Запросы пишешь штук 10 подряд, уточняя сюжет или указывая какие не учитывать. Удавалось так совсем редкие книги найти, которые ни гуглом, ничем не поднимешь. Если обычная нейронка справлялась, дипсерч тем более справится.
>>1085239 Чел, я с этой хуйней пишусь с выхода 3,5 ты мне не будешь говорить что она может и чего не может. Речь сейчас за конкретно дипсерч. Какие ты книги там искал и насколько они популярны - я без понятия. У меня в примере была инди-игра, и дело не в том, что он не мог найти на неё инфу, дело в том, что он с уверенным видом рассказывает по запросу "дай перечень боссов блаблабла" полный пиздеж, смешивая боссов и мобов игры, и уточнения ведут только к более жестким галлюцинациям. Дело в том, что я знаю, что этой инфы в сети нет. И вот тут самая опасная хуйня дипсерча: он же блядь примотан к генератору текста! Прикинь! И ни один дебил до сих пор не додумался, чтоб оно научилось говорить "стоп, нет такой информации". Вместо этого ты тонешь просто в галлюцинациях и историях одна охуительней другой. И тут я вернусь к тому с чего начинал: а ищет-то блядь по умолчанию человек, который не разбирается в предмете. То есть, эта хуйня с базовой своей функцией не справляется. Или вот я вчера сидел и куски книги переводил, которую читал, в нескольких ллмках. Ну охуеть вообще - на сцене где мужик ёбнул бабе в пятак - антропик обосрался и заблочил мне чат. Чё я теперь должен делать еще? Цензурить может текст перед подачей его? Да мне это в хуй не упало, я просто сижу читаю. Хули эта хуйня даже имея контекст и понимание что это часть книги - хуячит туда цензуру? Причем у книги даже нет какого-то рейтинга возрастного. Гемини тут не лучше - я скачал фронт энд и закинул туда книгу. Чё в итоге? КУЧА СУКА ДЫРОК. Эта уебина просто мне ни с того ни с сего когда-то да, а когда-то нет начала дропать своей фирменной пост цензурой куски текста со словами "убей, самоубийство" и т.д. Это был обычный ебучий детективчик. Может квен лучше? Ты ебать видел его цену? Знаешь что он делает? МЕНЯЕТ НАХУЙ ТЕКСТ там ебучая скрытая цензура, я даже не знаю что хуже - удаление кусков текста или переписываание втихаря как в "Основании" Азимова в издании под эгидой ЦК КПСС. И после этого кто-то еще будет говорить, что эта залупа тупая с корпоративной цензурой (которая так же есть и на лоКАЛьных моделях, к слову) - кого-то там заменит. Да мне проще не отдавать 700 рублей за токены, а пойти и купить за 700 рублей себе эту книжку, нахуй, на русском. А говнище это всё еще сырое, и 99% тех кто тут пишет что они успешно это используют - лукавят, ведь они могут это сделать и без использования нейронок, то есть юзают их больше ради фана и из принципа себя развлечь разбавляя рабочую рутину, нежели реально что-то оптимизируя и добиваясь большей эффективности.
>>1085504 Ну так я ровно так же делал, он смутно там спросил дай перечень уточнений может. Я уточнил, сделал исключения. И каждый раз при новом запросе уточнял. По ходу ты просто в промптинг не умеешь. Книги редкие были, через гугол их вообще не найти, полтора крокодила знают. С играми разве что скидка может быть, что нейронка сюжеты игр не знает. А вот книг как раз знает, ибо сайтов с обзорами и краткими содержаниями много.
>>1085504 > Чё я теперь должен делать еще? Лол, нахуй ты через ллм книгу переводишь, если есть deepl, который тебе без цензур переведет и наиболее точно.
>>1085533 >Лол, нахуй ты через ллм книгу переводишь, если есть deepl Потому что мне говно не нужно. Если ты слепой и не видишь стилистические оишбки и прочую срань - тебе и гугол норм зайдет. Меня такое не устраивает. Даже из ллм минимум которые могут реально на русском нормально художку переводить. Щас вот я на гроке читаю, но он прям как все файтюны лламы обсирается при переводе речи людей, у дипсика та же самая ерунда и еще плохой русский, но грок прям странно делает - на терпимом уровне художественность в тексте и прям срёт гуглом и подстрочником в прямой речи. А мне не приятно, у меня дохуя планка высокая, я даже печатные книги дропаю если такую хуйню вижу.
>>1085529 >По ходу ты просто в промптинг не умеешь Ага, ехай нахуй. Я не говорил что у меня проблемы, я сказал что это хуевые инструменты и объяснил почему. На данный момент. И дипсёрча кривой ризонинг, точка. Пусть делают новый или не буду пользоваться.