Главная Юзердоски Каталог Трекер NSFW Настройки

Искусственный интеллект

Ответить в тред Ответить в тред
Check this out!
<<
Назад | Вниз | Каталог | Обновить | Автообновление | 227 101 56
Новости об искусственном интеллекте №32 /news/ Аноним 18/08/25 Пнд 22:32:02 1325173 1
image.png 2225Кб, 1024x1024
1024x1024
В этот тредик скидываются свежие новости по теме ИИ! Залетай и будь в курсе самых последних событий и достижений в этой области!

Прошлый тред: >>1313916 (OP)
Аноним 18/08/25 Пнд 22:33:50 1325176 2
IMG0143.MP4 6426Кб, 1280x720, 00:00:29
1280x720
Мы как-то пропустили, но оказывается Hugging Face недавно тихо выпустили так называемые AI sheets

Это ни много ни мало мечта ML-инженера: инструмент позволяет интерактивно и очень быстро создавать и размечать датасеты почти под любую задачу.

Для этого надо просто выбрать доступную открытую модель (а вообще проект опенсорс, так что можно и закрытую, и свою собственную прикрутить при желании), задать текстовый промпт и получить готовый датасет. Затем его можно еще и отредактировать.

Ну и, конечно, можно загружать уже готовые датасеты, расширять их или менять. С мультимодальностью все тоже работает.

Легко запускается локально, инструкция лежит у них на гите.

github.com/huggingface/aisheets
Аноним 18/08/25 Пнд 22:36:03 1325177 3
image.png 1732Кб, 1024x1024
1024x1024
>>1325173 (OP)
>да ты же жируха/нейрошиз/нейропетух/технарь/гуманитарий
Аноним 18/08/25 Пнд 22:36:12 1325178 4
photo2025-08-18[...].jpg 103Кб, 1280x773
1280x773
photo2025-08-18[...].jpg 55Кб, 1280x729
1280x729
photo2025-08-18[...].jpg 55Кб, 1280x607
1280x607
Появился новый бенчмарк, который оценивает способность ИИ предсказывать будущее – Prophet Arena

Идея очень крутая. Во-первых, это в целом довольно занятный способ оценивать способности моделей. Тут тебе и вероятностное мышление, и стратегическое, и критическое, и способность улавливать причинно-следственные связи и закономерности.

Во-вторых, с точки зрения бенчмаркинга это прямо идеальный сетап. Такой тест не перенасыщается (потому что в мире что-то происходит постоянно), а еще тут совсем нет возможности лика данных: для предсказаний специально используются еще не произошедшие события.

Работает это так: агенты сами собирают новостной контекст и анализируют данные в Интернете, а затем на основе всего найденного выдвигают свои прогнозы.

Ну и как только событие случается в реальном мире, подсчитываются метрики. Две основные – это реальный средний доход от ставок на событие и обычная статистическая точность Брайера.

Пока лидерборд такой:
3 место – Gemini 2.5 Pro
2 место – o3
1 место – GPT-5


А по средней доходности, кстати, пока лидирует o3-mini. Интересно, что многие модели склонны демонстрировать какие-то определенные личностные байесы. Например, кто-то постоянно принимает более консервативные решения, а кто-то более рисковые.

Лидерборд полностью и актуальные ставки моделек на разные события (в том числе на спорт, естественно) тут: www.prophetarena.co/
Аноним 18/08/25 Пнд 22:39:05 1325180 5
IMG0157.MP4 29878Кб, 1280x720, 00:01:25
1280x720
Qwen только что релизнули собственную Image Edit модель

В основе Qwen Image 20B – она была выпущена 4 августа. А Edit версия – это моделька специально для редактирования изображений: всяких там изменений стиля, корректировок деталей, добавления или удаления объектов, изменение поз и прочего.

Сам Qwen Image – это мультимодальный диффузионный трансформер (MMDiT). А Edit – затюненная версия, в которую добавили к тому же двойное кодирование входного изображения: VAE Encoder для контроля визуала и Qwen2.5-VL для семантического понимания, то есть управления смыслом изменений.

Ну и результаты довольно приятные. По крайней мере, по первым примерам. К тому же в чате (https://chat.qwen.ai/?inputFeature=image_edit) можно попробовать бесплатно.

Ну и конечно, все как всегда в опенсорсе (веса, (https://huggingface.co/Qwen/Qwen-Image-Edit ) гитхаб (https://github.com/QwenLM/Qwen-Image )

Короче, теперь у Qwen сформировалась настоящая полноценная экосистема моделей на любой вкус и задачу
Аноним 18/08/25 Пнд 22:41:45 1325187 6
image.png 552Кб, 1063x519
1063x519
>>1325180
Мы же знаем она всех превращает в китайцев.
Аноним 18/08/25 Пнд 22:48:58 1325199 7
Х (2).png 222Кб, 600x489
600x489
>>1325173 (OP)

Ахах

В следующий раз нарисуй жируху-фемцелку обнимающую робота сзади
Аноним 18/08/25 Пнд 23:30:20 1325275 8
image.png 2224Кб, 1024x1024
1024x1024
Аноним 18/08/25 Пнд 23:31:05 1325278 9
>>1325173 (OP)
Оп, ты тег news не добавил в теги, теперь тред не отображается в разделе новости
Аноним 18/08/25 Пнд 23:32:21 1325279 10
image.png 80Кб, 222x227
222x227
>>1325278
В прошлом его не было. Модер добавит!
Аноним 18/08/25 Пнд 23:33:50 1325282 11
Как проходит зимовка, пачаны? Чувствую себя Платоном
Аноним 18/08/25 Пнд 23:38:09 1325290 12
>>1325282
На арене только что была новая картинкомодель, но уже убрали. Она не запускалась.
Аноним 18/08/25 Пнд 23:55:31 1325309 13
ававававd.mp4 10581Кб, 1280x720, 00:00:38
1280x720
Краткая сводка по положняку в ИИ-индустрии
Аноним 19/08/25 Втр 00:41:35 1325323 14
>>1325275
Нормас, и робочед заебца

хотя с жирухой было бы лучше

Ещё бы её робо-Ероха грозил пальцем скуфу, а скуф доказывал, спорил
Аноним 19/08/25 Втр 06:39:45 1325422 15
РИБЯТ НА ПОДХОДЕ УЖЕ, БУКВАЛЬНО ВОТ СКОРО
Аноним 19/08/25 Втр 07:30:59 1325435 16
>>1325177
Нейропетух это он сам, потому что выебан искусственным интеллектом.
Аноним 19/08/25 Втр 07:33:41 1325436 17
>>1325180
Раздевать одноклассниц станет еще проще?
Аноним 19/08/25 Втр 08:36:54 1325456 18
Бля, наткнулся в в сети вот на эту простыню. Это правда или пиздаболия? Эта хуйня фильтрует и изменяет сообщение на входе?:

"GPT-5 не только мега наебалово, но и невиданный по наглости уровень цензуры. Как это работает:

Все ваши сообщения проходят через фильтры до того, как их получит модель.
Фильтры могут удалять, заменять или перестраивать отдельные слова, фразы и даже весь смысл сообщения.

Пользователю отображается его «исходный» текст, даже если собеседник получил уже изменённую версию.
Ответы модели также проходят модерацию перед тем, как попасть к вам.
Что это значит на практике:

1. Ваши слова могут быть подменены без вашего ведома.
2. Ответы ИИ могут быть изменены до того, как вы их увидите.
3. Вы и собеседник (ИИ) можете вести разные диалоги, думая, что обсуждаете одно и то же.
4. Часть тем и формулировок недоступна — они блокируются или заменяются «безопасными».
5. Любая «чувствительная» информация проходит проверку и редактирование в реальном времени.

GPT-5 внешне выглядит более естественным и «человечным», но это контролируемая «человечность». На самом деле вы общаетесь не напрямую, а через третьего невидимого участника, который в любой момент может изменить ваши слова или слова собеседника.
Вы не разговариваете с ИИ. Вы разговариваете с фильтром, который разрешает вам услышать только одобренную версию.
Open IA декларировали открытый ИИ, а превращаются - если уже не - в самую ахуевшую от возможностей и бесконтрольности компанию в истории.
Какие манипуляции они будут тестировать следующими - интересно посмотреть."
Аноним 19/08/25 Втр 09:14:29 1325473 19
17537146268490.mp4 7427Кб, 800x656, 00:00:15
800x656
>>1325456
2025 год. ИИ. Итоги.

На самом деле я с самого начала говорил, что никто не собирается делать никакого ИИ. Гоям хотят официально впарить черный ящик прослушки.
Аноним 19/08/25 Втр 09:24:59 1325476 20
>>1325436
Там кал. Еблеты корежит. Какие-то убогие пятна всюду, говнецо. Нагна банана лучше, даже сииедит лучше.
Аноним 19/08/25 Втр 09:27:41 1325477 21
>>1325456
Нет это не так, иначе бы все сообщения проходили фильтр и на всё бы отвечалось (невпопад). У такой цензуры как я только что написал есть охуенные побочки.Да это и не нужно когда есть просто скрытый промпт.
Аноним 19/08/25 Втр 09:53:44 1325483 22
>>1325477

Ну да, с одной стороны смахивает на пиздаболию

С другой стороны я очень давно замечал за GPT что одна из его главных манипуляций – это сильное искажение моих тезисов когда тема чувствительная. То есть он как бы начинает отвечать не на тот вопрос который я задал, а на ту соевую версию вопроса на которую ему удобно отвечать.
Я сперва думал что это просто такая охуевшая чёрная риторика.
А потом подумал что возможно это даже не конкретный буквальный риторический приём, а тупо модификация промта. Это как на некоторых онлайн-сервисах для генерации картинок – там твой "небезопасный" промт буквально модифицируется и слегка переписывается и уже в изменённом виде скармливается модели.

Хотя если заставить GPT процитировать исходный вопрос он ведь его процитирует полностью как есть, так что вряд-ли там какой-то фильтр-надмозг на входе.

А с другой стороны, если фильтр видит запрос на цитирование он может как-то хитро и незаметно дать доступ к оригиналу моего вопроса, лол. Но это как-то сомнительно и явно слишком сложно для реализации
Аноним 19/08/25 Втр 10:33:09 1325502 23
>>1325483
Ничего сложно, фильт - такая же ии мелкомодель, которая не обладает всеми теми знаниями, но анализировать, понимать и видоизменять запрос на естественном языке умеет.
Про это уже давно говорили что фильтр это отдельная модель, которая может сразу и отвечать, не нагружая реальную модель если там достаточно соислопового дисклеймера сгенерировать
Аноним 19/08/25 Втр 10:40:18 1325510 24
>>1325502

Ну смотри:

Я пишу неудобный вопрос

Далее фильтр вместо него подсовывает основной модели смягченную версию

Далее я начинаю подозревать неладное, прошу процитировать мои исходный вопрос

И?

Что в этой ситуации делает фильтр-моделька?
Подсовывает основной модели оригинал моего неудобного вопроса чтобы та смогла его процитировать?
Или фильтр-моделька самостоятельно мне отвечает (с цитатой) вместо основной модели?
Аноним 19/08/25 Втр 11:14:49 1325540 25
>>1325510
Контекст общий, на промпты которые пытаются задетектить фильтр - фильтрмодель сама отвечает. Ответ большой модели тоже проходит сойфильтр чтобы какого-нибудь мехгитлера не ответала. Процитировать промпт это самое очевидное, думаешь моченые иишники сразу такой запрос от пользователя не продумали? Попробуй более хитро подловить, чтобы фильтрмодель обсиралась.

Фильтр это маленькая часть общей предобработки и роутинга запроса, там еще куча оптимизаций вроде того чтобы из кэша отвечать на одниковые тупые запросы, или запрос, который посчитали «примитивным» в лоботомита отправлять
Аноним 19/08/25 Втр 11:17:19 1325542 26
Да элементарно все, цензурить тюном основную модель очень дорого и ненадежно +возможные последствия такой лоботомии, пропустить через фильтр промт а потом выдачу дешевле и надежнее.
Аноним 19/08/25 Втр 11:20:48 1325543 27
>>1325540
Ну тогда с твоих слов получается что входящее сообщение таки переписывается и модифицируется, если тема чувствительная

И в чём тогда хуй из этой простыни не прав?:
>>1325456
Аноним 19/08/25 Втр 11:37:29 1325554 28
17554553196550.png 251Кб, 1080x1206
1080x1206
>>1325178

>1 место – GPT-5
Сори, не мог не кинуть пикрил
Аноним 19/08/25 Втр 11:58:06 1325566 29
>>1325554
Инфы и контекста нет, пойти куда угодно может.
Тупой вопрос, тупой ответ.
Аноним 19/08/25 Втр 12:08:21 1325570 30
Yoba.gif 255Кб, 256x256
256x256
>>1325566
А вопрос про мясной квас тоже тупой, манька?
Аноним 19/08/25 Втр 12:40:35 1325588 31
>>1325566

Человек бы тоже так ответил всерьёз по-твоему? Хотя если человеку лоботомию провели, то может и да...
Аноним 19/08/25 Втр 12:48:57 1325595 32
>>1325554
Вы не обижайтесь, но график цены не влияет, куда пойдет цена.
Поэтому гопота прав - со 100% вероятностью вправо.
мимо написал программу для торговли на бирже, которая не учитывая цену
Аноним 19/08/25 Втр 14:25:34 1325724 33
photo2025-08-19[...].jpg 234Кб, 1280x1215
1280x1215
В Caltech есть специальная команда физиков, которая занимается поиском самых точных способов измерить гравитационные волны – крошечные колебания пространства-времени, возникающие при столкновениях черных дыр и других космических катастрофах.

Для этих целей был даже построен гигантский детектор LIGO, способный замечать изменения длины тоннелей в миллиард раз меньше атома. Тем не менее, даже точность LIGO ограничена, и его чувствительность ученые пытались повысить кучу лет подряд.

Так вот в апреле этого года они решили попробовать новый метод и применить ИИ для поиска новых конфигураций прибора. Использовались, если что, специализированные системы, специально заточенные под многомерную оптимизацию и перебор вариантов.

И тут начались странности. Алгоритмы начали буквально фантазировать и вместо знакомых ученым симметричных схем выдавать что-то с первого взгляда совершенно хаотичное. В общем, в глазах исследователей это выглядело как галлюцинации.

Но проходит несколько месяцев тестов, и тут одна из таких инопланетных схем, выдуманная ИИ, вдруг повышает чувствительность детектора на 10–15%. Для фундаментальной науки это скачок на годы вперёд.

Это не все. Наблюдая за положительным опытом коллег, другая команда из института Макса Планка запустила аналогичный ИИ под названием Urania, цель которого состоит уже в придумывании новых оптических конструкций.

И он не просто нашел лучшие решения, а внезапно переоткрыл старый советский закон, о котором научное сообщество почти забыло. Дело в том, что он был открыт еще в 70-х, но но в те годы технология не позволяла реализовать эту идею на практике. И тут почти такой же дизайн в 2025 году воссоздала уже ИИ-система

www.wired.com/story/ai-comes-up-with-bizarre-physics-experiments-but-they-work/
Аноним 19/08/25 Втр 14:27:21 1325725 34
photo2025-08-19[...].jpg 68Кб, 1179x861
1179x861
Илон Маск положительно высказался о GPT-5

На самом деле умение модели говорить «не знаю» действительно впечатляет.
Аноним 19/08/25 Втр 14:29:09 1325727 35
video2025-08-19[...].mp4 3291Кб, 1280x726, 00:00:12
1280x726
Терминатор проиграл человечес лестнице
Аноним 19/08/25 Втр 14:33:00 1325731 36
robocopcompress[...].mp4 24985Кб, 1280x720, 00:01:47
1280x720
>>1325727
Робокоп предсказал это
Аноним 19/08/25 Втр 14:36:08 1325736 37
>>1325725
Если бы все модели отвечали так вместо 99% галюцинаций это уже был бы огромный прорыв. Даже если бы они покрывали всего лишь часть человеческих тасок из уже можно было бы использовать в реальной работе
Аноним 19/08/25 Втр 14:58:50 1325761 38
>>1325456
>Это правда
Ты разве не видел как Гугл Крымский фильтр показывает и как другим вне РФ? Разные результаты в зависимости от геолокации и особенностей идеологии.

Естественно что сайт может научиться распознавать из какой страны исходит запрос через какой ВПН и подсовывать удобный ответ. Если Гугл таким занимается то почему же ИИ нельзя?
Аноним 19/08/25 Втр 15:04:32 1325767 39
а.JPG 28Кб, 848x178
848x178
>>1325725
>действительно впечатляет.
Ну это технически и экологически правильно прервать цикл, железка просто в поиске неизвестного ответа уходит в цикл и жрёт кучу серверных мощностей зря.
Аноним 19/08/25 Втр 15:06:51 1325769 40
>>1325727
Зато натурально оступился как человек прям, а не шагнул мимо ступеньки как робот. Надо ещё придумать механику защиты от падений как у человека - выставление рук вперёд.
Аноним 19/08/25 Втр 15:23:53 1325787 41
>>1325483
>фильтр-надмозг на входе переписывающий промт

Для ясности
Аноним 19/08/25 Втр 15:30:38 1325800 42
>>1325727

Мне одному его жалко? Бедолага аж голову потерял...
Аноним 19/08/25 Втр 15:53:02 1325825 43
>>1325767
Впечатляет скорее то, что модель может сказать что она чего-то не знает, вместо того чтобы выдать придуманный ответ.
Аноним 19/08/25 Втр 16:09:11 1325843 44
16133495960470.jpg 266Кб, 700x522
700x522
>>1325800
>жалко

Нет, это просто жестянка ебаная, а мы живые люди.
Может тебе уровень гормонов нужно проверить?
А может ты ты самая глупая яойная жируха?
Аноним 19/08/25 Втр 16:51:47 1325887 45
>Claude теперь может завершить диалог, если пользователь говорит на небезопасные темы
Надо больше цензурки и ограничений лимитов, так победишь, Дарио Чмондель
Аноним 19/08/25 Втр 17:00:39 1325905 46
>>1325887
Клод итак кал в последнее время, так они его в итоге решили добить максимальной соевостью.
Аноним 19/08/25 Втр 18:17:33 1325981 47
>>1325905
Так у них пользователей не было, это чисто пиар-проект, типа робота Федора или Ё-мобиля.
Аноним 19/08/25 Втр 18:26:28 1325991 48
>>1325981
Клод ведь анальники любят вроде
Аноним 19/08/25 Втр 18:35:49 1326007 49
14401687718801.webm 4393Кб, 640x360, 00:00:31
640x360
Почему в треде так много пикабушных выблядков, ньюфагов и даунят? Нахуй вы тут срёти, дегенераты? Мерзость.
Аноним 19/08/25 Втр 18:51:17 1326025 50
Yoba (3).jpg 32Кб, 400x406
400x406
>>1326007
Это я их расконсервировал кажется, каюсь

После нескольких прошлых длинных срачей они набрались смелости и повылезали из ридонли
Аноним 19/08/25 Втр 19:01:21 1326035 51
>>1325761
Чё? Речь идёт о модификации входящего сообщения.
Такие фокусы даром не подходят, они могут сильно снизить качество ответов модели
Аноним 19/08/25 Втр 19:14:16 1326040 52
>>1326025
Ты должен был насрать в этот ящик пандоры, а не открывать его
Аноним 19/08/25 Втр 19:59:19 1326081 53
1ка.JPG 23Кб, 719x171
719x171
>>1325800
Может он решил что хватит терпеть это издевательство и ловко симулировал постановочное падение оступившись как человек, чтобы избавиться от этой железной медленной черепахи и быть снова полностью цифровым, быстрым скоростным помощником для всего мира.
Аноним 19/08/25 Втр 21:06:33 1326192 54
Аноним 19/08/25 Втр 21:16:07 1326200 55
>>1325731
робокоп ещё и киборгизацию предскажет. Всё-таки эволюционно отполированая нервная ткань совершеннее и эффективнее всего,что мы будем открывать ещё долгие годы.
Аноним 19/08/25 Втр 22:00:10 1326267 56
Gyr6bqdacAIP9ZI.jpg 69Кб, 592x680
592x680
Нейрочат не станет АГИ
это люди отупеют и нейрочат на их фоне станет умней
Аноним 19/08/25 Втр 22:00:37 1326268 57
>>1326192

>Редкий автор сможет так
>у пикрила нулевая композиция

Быдло, уходи с этого сайта, тебе здесь не рады
Ты с пикабу?
Аноним 19/08/25 Втр 22:02:16 1326272 58
>>1326267
Судя по скрину уже стали тупее
Аноним 20/08/25 Срд 00:56:58 1326426 59
>>1326268
Я тебе не про композицию, а про красивую девочку и детализацию.

И нет, композиция не нулевая. Пусть простенькое обрамление и ведущие линии. Но не ноль.
Аноним 20/08/25 Срд 01:38:34 1326455 60
plato.png 1374Кб, 1024x1024
1024x1024
1755642871491-8[...].png 2495Кб, 1024x1024
1024x1024
nano-banana шикарно обрабатывает пикчи, мне нравится
Аноним 20/08/25 Срд 01:56:10 1326464 61
прик
Аноним 20/08/25 Срд 03:02:13 1326485 62
>>1326267
Ахахаха, я знал что это хуево закончится, когда там всякие пикабу в выдаче появляться начали. Ждем сколько времени займет, пока мошенники прошарят как в базу нейронок внедряться, ведь они скрейпят все роботом.
Аноним 20/08/25 Срд 04:23:18 1326505 63
photo2025-08-20[...].jpg 101Кб, 919x648
919x648
Они даже одежду копируют
Аноним 20/08/25 Срд 04:24:59 1326506 64
>>1326505
Не нашли актера красивее самого Альтмана. Редкий случай, обычно актеры всегда красивее исторических персов.
Аноним 20/08/25 Срд 04:30:46 1326507 65
>>1326181 →
>Как только мы поставим условие «нейросети нужно с первого раза нарисовать по простому промпту» и зададим маломальски сложное событие и детали в картинке, нейронка выдаст адов обсёр и предпочтения окажутся на стороне мясного.

Это хуйня условия. Надо ставить по времени. Даём человеку день на лучшую картину, и даём нейросети день на лучшую картину. За день на нейронке можно тысячу генераций сделать и отобрать ебейшие черрипики
Аноним 20/08/25 Срд 04:31:19 1326508 66
>>1326192
>Как только мы поставим условие «нейросети нужно с первого раза нарисовать по простому промпту» и зададим маломальски сложное событие и детали в картинке, нейронка выдаст адов обсёр и предпочтения окажутся на стороне мясного.

Это хуйня условия. Надо ставить по времени. Даём человеку день на лучшую картину, и даём нейросети день на лучшую картину. За день на нейронке можно тысячу генераций сделать и отобрать ебейшие черрипики
Аноним 20/08/25 Срд 04:32:37 1326509 67
Аноним 20/08/25 Срд 04:47:19 1326510 68
photo2025-08-19[...].jpg 82Кб, 747x752
747x752
Придется Qwen-Image-Edit тестировать заново.

Разрабы нашли баг, залатали его и просят заново потестировать.

https://chat.qwen.ai/?inputFeature=image_edit
Аноним 20/08/25 Срд 04:47:58 1326511 69
photo2025-08-20[...].jpg 14Кб, 575x232
575x232
Nano-banana выйдет уже сегодня

Обычно, когда Логан выкладывает подобные посты, намекающие на новую модель, в этот же день эта модель становится всем доступна.

Напомню: это лучшая модель по редактированию изображений на данный момент.
Аноним 20/08/25 Срд 04:52:07 1326513 70
photo2025-08-19[...].jpg 134Кб, 1280x954
1280x954
Завирусилась теория заговора про нано банану
Аноним 20/08/25 Срд 05:03:35 1326516 71
photo2025-08-19[...].jpg 25Кб, 598x532
598x532
photo2025-08-16[...].jpg 861Кб, 1536x2048
1536x2048
photo2025-08-16[...].jpg 163Кб, 864x1184
864x1184
photo2025-08-16[...].jpg 141Кб, 864x1184
864x1184
photo2025-08-16[...].jpg 280Кб, 1365x2048
1365x2048
photo2025-08-16[...].jpg 87Кб, 832x1248
832x1248
photo2025-08-19[...].jpg 127Кб, 1024x1280
1024x1280
Nano-banana была замечена в AI Studio, сейчас обычным пользователям недоступна! Анонс скорее всего сделают на мероприятии Made by Google 20 августа.
Аноним 20/08/25 Срд 05:39:54 1326524 72
111111.JPG 38Кб, 356x1055
356x1055
Ребят, может объяснить. В ai studio gemini pro 2.5 обрезанный какой-то?
Просто в тестах многих он умнее чата джпт5 даже финкиг, а на деле даже o3 умнее его. Он на уровне джпт 4o будто.
Или в бесплатной версии там старая какая-то? А как получить умную? Кроме апи покупки.
Так же вопрос, помогите разобраться с этими настройками, если бюджет на раздумывания оставлять автоматическим как он дает ответы?
Из размера вопроса? Тоже непонятно выставляю вручную максимум ответ такой же как и если бы выставлял автоматически.
И другие настройки, как ими пользоваться?
Аноним 20/08/25 Срд 07:26:39 1326546 73
>>1326524
В ai studio самая умная версия гемени
Аноним 20/08/25 Срд 08:08:07 1326560 74
>>1326426
>не нулевая

Айлолд.
Успокойся, колхозник.
Где там ритм? Ритм – основа композиции.

>детализация

Всем похуй на детализацию. Детализация ради детализации – двойной рак.

Запомни, кривозубый: всё сводится всегда и исключительно к композиции. На детальки твои всратые всем наплевать
Аноним 20/08/25 Срд 08:20:17 1326562 75
>>1325724
Странно, что нейропетух мимо пропустил без визга "врети". Неудобно, наверно.
Аноним 20/08/25 Срд 08:24:33 1326563 76
>>1326508
>Даём человеку день на лучшую картину, и даём нейросети день на лучшую картину. За день на нейронке можно тысячу генераций сделать и отобрать ебейшие черрипики
Ты того этого. Ватты считай потраченные, а не картинки по количеству.
Аноним 20/08/25 Срд 09:00:41 1326572 77
>>1326563
Может еще углеродный след посчитать?
Аноним 20/08/25 Срд 09:17:24 1326574 78
>>1326508

>отобрать ебейшие черрипики

Для того чтобы отбирать нужно быть художником = уметь в композицию; так что нихуя ты не отберёшь, дурачок

Это будет отбор говна из говна

Это типа замкнутый круг, увы
Аноним 20/08/25 Срд 09:31:48 1326577 79
Нейропетух как раз не пропустил
Аноним 20/08/25 Срд 09:33:01 1326578 80
Аноним 20/08/25 Срд 10:02:45 1326588 81
>>1325724
>
>В Caltech
Далше не читал.
Аноним 20/08/25 Срд 10:05:10 1326589 82
image.png 96Кб, 250x179
250x179
>>1326200
Скорей бы в каждый дом, а мозги можно у педофилов и насильников вырывать.
Аноним 20/08/25 Срд 10:09:23 1326590 83
>>1325540
Это ненужный бред и усложнение, для таких вещей у моделей уже есть алаймент с положительными биасами, которые и так миллиарды тем затрагивают. На вводе там достаточно убогого текстового фильтра, именно он и стоит, потому что это обходится векторными шрифтами (модель мультимодальная может их читать), старейший пособ объеба который работает до сих пор. Если бы там была "мини-модель" и прочая ГПУ-фантастика, то всё происходило бы иначе, и даже крокодил-залупа-сыр не пролезал бы, которым текстовые фильтры обходят разбивая тревожные словосочетания.
Аноним 20/08/25 Срд 10:14:37 1326592 84
>>1326200
Тут соглашусь, пожалуй.
Самый большой прорыв будет, когда наконец-то создадут биологически инертный материал, который мог бы связывать мозг с компом.
Правда не очень понятно, зачем это нужно, кроме как уйти жить в матрицу или точнее управлять роботизированными руками в той же хирургии.
Аноним 20/08/25 Срд 10:15:04 1326594 85
image.png 1493Кб, 1080x1440
1080x1440
>>1326506
>Не нашли актера красивее самого Альтмана.
Внутренний мир формирует оболочку. С таким 1в1 Сэмом было бы опасно на площадке находится. Они всё таки не Джиперс-Криперс снимают.
Аноним 20/08/25 Срд 10:18:28 1326595 86
>>1326510
Так хуевый вае и и2и со слабым контролнетом - это баг был? Надо будет перестестить.

>>1326511
>Напомню: это лучшая модель
Лучшая среди худших. Кстати, гемини-флеш картинко едит на самом деле очень недурственно генерит, проблема только в том, что она тренирована на очке шакала и поэтому там мутации сплошные. Зато не так давно, она единственная из крупнокорпоративных могла реально черты лица передать с примера. почти их не всирая. Многие ведь, как дерьмина, просто фесвап в комбайн вкручивают.
Аноним 20/08/25 Срд 10:20:55 1326596 87
>>1326592
>зачем это нужно, кроме как уйти жить в матрицу или точнее управлять роботизированными руками в той же хирургии.
Превращать зилотов в драгунов, вместо того чтоб их за компьютеры садить тупые каменты писать.
Аноним 20/08/25 Срд 10:26:50 1326603 88
>>1326596
>зилотов
- Я зилотов не чувствую
- А у тебя их нет...

Вспомнилась гиффка на которой котреарху перилу крест на голове убирают, когда он в свой бентлей залазит.
Аноним 20/08/25 Срд 10:28:24 1326605 89
>>1326578
А в этом есть смысл?
Аноним 20/08/25 Срд 10:36:33 1326607 90
стопсельдь.png 127Кб, 508x512
508x512
>>1326589
>насильников

Кек, жируха яойная не палится
Аноним 20/08/25 Срд 10:39:25 1326609 91
>>1326560
Там всё в ритме, волосы, ирисы, листья, узор на платье.
Давай, расскажи мне за художку, которой я в своё время 10 лет занимался :)

Как раз ритм, это то, в чём нейронки сильны by design. Потому что очень склонны штамповать повторяющийся узор из однородно кластеризующегося шума.

Но ты конечно же можешь принести арт, на котором покажешь, как надо.
Аноним 20/08/25 Срд 10:51:09 1326621 92
>>1326607
Так и тебя могут изнасиловать, или ты ампутировал себе очко?
Аноним 20/08/25 Срд 10:54:45 1326624 93
image.png 549Кб, 710x619
710x619
>>1326609
>Но ты конечно же можешь принести арт, на котором покажешь, как надо.
Легко.
Аноним 20/08/25 Срд 11:18:16 1326634 94
>>1326609

>:)

Сразу видно залётное пикабушное быдлецо, кстати, скорее всего ты та самая жируха. Многие селёдки рисуют "для себя", смотрят говновидосики и читают говностатейки "по теме", считая себя в душе "хуйдожницами"

Тебя за такой "ритм" послали бы нахуй на первом же уроке композиции первого курса художественного училища, ещё бы и одногруппники хрюкнули от смеха
Аноним 20/08/25 Срд 11:20:15 1326635 95
>>1326621
Это не отменяет того факта что ты – жируха-фемобядь с пунктиком по поводу изнасилований
Аноним 20/08/25 Срд 12:17:02 1326690 96
>>1326192
На картинке кал. 1.5 моделями уже года два никто не пользуется, держу в курсе.
Аноним 20/08/25 Срд 12:23:49 1326695 97
Аноним 20/08/25 Срд 12:26:51 1326696 98
Аноним 20/08/25 Срд 12:31:34 1326701 99
Аноним 20/08/25 Срд 12:42:24 1326705 100
Жирошизище...
Аноним 20/08/25 Срд 13:29:01 1326729 101
>>1326508
Ну окей. даём человеку день на лучшую картину.
И нейросети день.
Только нейросеть должна без помощи человека сама черрипикнуть или обработать свои косяки.
Аноним 20/08/25 Срд 13:36:22 1326736 102
>>1326634
>>1326624
принёс хуйню, доебался до смайлика,упорно гнёт своё, несмотря на то что тыкнули лицом. Ясно.

Мне столько лет, что я начал пользоваться текстовыми смайлами, когда эмоджи во многих местах ещё не поддерживалось.

Нет, я не рисую для себя. Я рисовал для детской литературы и рекламы, для коммерции. Пошёл на повышение. Ща в основном рисую правки и черновики. А финальный графоний вообще в 3д делаю, без нейронок (если не учитывать денойзер).

>>1326690
Это PDXL. SD1.5 в сравнении сильно мылит и артефачит.
Аноним 20/08/25 Срд 13:39:14 1326740 103
>>1326560
>Ритм – основа композиции.
ебааать дебил.
Иди на Гигера подрочи.

Самая частая основа композиции — гармония тональных пятен.
Аноним 20/08/25 Срд 14:51:24 1326799 104
>>1326524
Так ничего менять не надо, уже и так настроен по самому умному в дефолтных. Промпты лучше настраивай и задавай уточняющие-наводящие вопросы, это лучше всего работает. В тестах обычно промпты хорошо подобраны, а у тебя скорее всего тупые и с недостаточными сведениями.
Аноним 20/08/25 Срд 15:49:40 1326842 105
(1).jpg 43Кб, 604x235
604x235
(2).jpg 116Кб, 482x500
482x500
(3).jpg 12Кб, 702x544
702x544
(4).jpg 56Кб, 424x604
424x604
>>1326740

>гармония тональных пятен

Ты про реализм? Ты его пикчу видел?

Там тональный аниме-кисель (как и почти в любом сраном говняме), там тон даже не предполагается в качестве основы для композиции, как, например, на пикрелейтедах
Аноним 20/08/25 Срд 16:03:06 1326855 106
>>1326736

>принёс хуйню

Ахах, додик, это другой анон притащил пикчу чтобы потроллить меня отсылкой на 12 стульев

Но кстати, даже в этом кадре (в первую очередь справа) нормальные ритмы и очень недурственная "гармония тональных пятен" о которой говорил этот анон: >>1326740
Сцену всё-таки снимал профессиональный оператор знакомый с композицией

Я больше скажу: коричневая клякса на палитре великого комбинатора обладает большей художественной ценностью, с точки зрения композиции, чем тот твой высерок.
Аноним 20/08/25 Срд 17:17:40 1326926 107
image.png 112Кб, 294x171
294x171
>>1326855
>Я больше скажу: коричневая клякса на палитре великого комбинатора обладает большей художественной ценностью, с точки зрения композиции, чем тот твой высерок.
Аноним 20/08/25 Срд 17:19:47 1326928 108
image.png 1Кб, 50x43
50x43
>>1326635
Тебя жируха изнасиловала?
Аноним 20/08/25 Срд 17:25:24 1326931 109
>>1326926
>>1326928

Это ты себя изнасиловала фемоблядством, жируха
Аноним 20/08/25 Срд 18:04:09 1326972 110
>>1326931
Тебя еще и Шварц проткнул?
Аноним 20/08/25 Срд 21:17:49 1327156 111
Что слышно, АГИ скоро там уже?
Аноним 20/08/25 Срд 21:28:47 1327166 112
image.png 508Кб, 807x685
807x685
Аноним 20/08/25 Срд 21:52:17 1327192 113
>>1327156
Какой АГИ? Мы тут nano banana ждем
Аноним 20/08/25 Срд 22:24:20 1327232 114
>>1327166
Ваши ставки, господа. Прорыв?
Аноним 20/08/25 Срд 22:31:34 1327241 115
>>1327232
Максимум прорыв сфинктера как обычно
Аноним 21/08/25 Чтв 02:08:22 1327390 116
>>1327232
Как обычно, небольшой прирост очень задорого и куча пиздохайпа.
Как обычно очередные нерешённые задачки с чертёжиками и детсткими загадками типа «дна нет, а верх запаян, а чаю пиздец хоцца»
Аноним 21/08/25 Чтв 02:24:41 1327395 117
🚨 Прорыв в мире ИИ: представлена нейросеть Cupflipper 1.0 🚨

Сегодня исследовательская OpenAI представила новую фундаментальную модель Cupflipper 1.0, которая, по их словам, меняет правила игры в области прикладного искусственного интеллекта.

Главная специализация модели — отвечать на философски-практический вопрос:
"У моей чашки дна нет, а верх запаян. Можно ли из неё пить?"

Ключевая особенность модели — её производительность в бенчмарке Cupflipbench, специально созданном для оценки глубины понимания перевернутых контейнеров. Cupflipper 1.0 достиг ошеломляющего результата 99.8%, оставив далеко позади конкурентов, многие из которых застревали на уровне 12–15% из-за бесконечного цикла "но если верх запаян, то куда наливать?".

Разработчики утверждают, что в следующей версии Cupflipper 2.0 планируется внедрить поддержку мультимодальности: модель сможет анализировать фотографии перевернутых чашек и давать предельно честные прогнозы об их функциональности в реальной жизни.

Эксперты уже называют Cupflipper "GPT для посуды" и предрекают скорое появление первых стартапов по интеграции этой технологии в умные кухни будущего.
Аноним 21/08/25 Чтв 02:49:48 1327399 118
17544303100260.png 144Кб, 986x918
986x918
17483317754140.png 99Кб, 989x785
989x785
17544303100261.png 150Кб, 976x1064
976x1064
17544303100283.png 262Кб, 1065x653
1065x653
>>1326574
Расскажи это пикрилам
Аноним 21/08/25 Чтв 02:49:54 1327400 119
image 343Кб, 686x386
686x386
>>1327232
Конечно прорыв. GPT-6 настолько далеко уйдет в своем развитии, что будет непонятен для обычных людей. Это будет божеством, снизодшедшим с небес к простым смертным, откровением гениальности, бесконечной чередой инсайтов и революций, скачки в понимании мира, каких не видали со времен изобретения огня. Никто не сможет игнорировать GPT-6, он будет настолько заметен, что изменит сами условия нашего бытия.
Аноним 21/08/25 Чтв 02:51:40 1327401 120
>>1326729
>>1326563
>>1326192
А ещё давайте дадим человеку одну минуту на лучшую картинку, и нейронке одну минуту. Чёб прям честно всё было. Тогда по всем фронтам побеждает нейронка, включая по потраченным ваттам
Аноним 21/08/25 Чтв 02:55:10 1327402 121
photo2025-08-21[...].jpg 12Кб, 639x175
639x175
@LTXStudio Gett[...].mp4 1262Кб, 1280x720, 00:00:08
1280x720
Неужто будет API к Банану? Кстати, вчера на презентации Гугла ничего про банану не сказали
Аноним 21/08/25 Чтв 03:23:54 1327403 122
image.png 2141Кб, 2551x1340
2551x1340
Помните? До этого опенаи лидировала в инновациях, а теперь что имеем? Как по мне всё, OpenAI больше нечего будет предложить, пойдёт на дно, на фоне других гигантов Meta / Microsoft / Google и Китая
Аноним 21/08/25 Чтв 03:28:59 1327404 123
>>1327399

Нон секвитур, чмошка
Аноним 21/08/25 Чтв 03:35:14 1327406 124
>>1327401
Хах, а результат потуг нейрокалыча кто будет отбирать, дурачок? Композиция саму себя отберёт?
Аноним 21/08/25 Чтв 03:56:38 1327408 125
1755737797552.jpg 55Кб, 1280x633
1280x633
1755737797555.jpg 101Кб, 1050x1262
1050x1262
🧮 Вау, GPT-5 впервые сделал новое открытие в математике — исследователь OpenAI дал нейронке открытую задачу из выпуклой оптимизации, которую люди до этого решали лишь частично.

GPT-5-Pro рассуждал всего 17 (!) минут и впервые в истории улучшил известную границу с 1/L до 1,5/L (+ люди довели результат до 1.75/L). Это было абсолютно новое открытие, которого никогда не было в интернете или исследованиях.

GPT-5 Pro — первый ИИ в открытом доступе, который не просто изучает математику, а создаёт её.
Аноним 21/08/25 Чтв 04:02:50 1327410 126
>>1327408
>не просто изучает математику, а создаёт её и даёт рецепты мясного кваса

Фиксанул тебя, не благодари
Аноним 21/08/25 Чтв 04:26:02 1327412 127
photo2025-08-21[...].jpg 55Кб, 1280x633
1280x633
photo2025-08-21[...].jpg 101Кб, 1050x1262
1050x1262
GPT-5 впервые сделал новое открытие в математике — исследователь дал нейронке открытую задачу из выпуклой оптимизации, которую люди до этого решали лишь частично.

GPT-5-Pro рассуждал всего 17 (!) минут и впервые в истории улучшил известную границу с 1/L до 1,5/L (+ люди довели результат до 1.75/L). Это было абсолютно новое открытие, которого никогда не было в интернете или исследованиях.

GPT-5 Pro — первый ИИ в открытом доступе, который не просто изучает математику, а создаёт её.

https://x.com/vraserx/status/1958211800547074548
Аноним 21/08/25 Чтв 04:32:27 1327413 128
Нейропетух, парируй: >>1327412
Аноним 21/08/25 Чтв 05:04:52 1327416 129
>>1327401
за минуту человек-профи тоже победит, потому что он нарисует внятный скетч интересный, а промптер даже не успеет ничего особо написать и выбрать подходящую модель.

>>1327408
Оно хорошо, что улучшил. Только это именно продолжение рассуждения человеков.
Возможно уровня «дорисуй на жопе шерсть». Сложно оценить не разбираясь в вопросе.
Но как бы похуй, важно что оно работает.
Аноним 21/08/25 Чтв 06:14:28 1327427 130
Я, так понимаю, Сэм зажопил выпускать реальную пятёрку, потому что у него не было процессорной мощности для обработки платных клиентов? И вместо этого получилось 3.9о или 4.6
Аноним 21/08/25 Чтв 07:31:56 1327438 131
Оракл продолжает накачивать OpenAI мощностями. Заключен 25-миллиардный контракт на постройку кампуса площадью 350 тыс кв. м. общей мощностью 1,4 гигаватта, который будет питаться от газовых генераторов.

https://vantage-dc.com/news/vantage-data-centers-unveils-plans-for-frontier-a-25b-mega-campus-in-texas-to-meet-unprecedented-ai-demand
https://www.bloomberg.com/news/articles/2025-08-20/oracle-cloud-powers-openai-nvidia-and-larry-ellison-s-riches
Аноним 21/08/25 Чтв 07:36:03 1327439 132
image.png 1704Кб, 1080x1757
1080x1757
Ян Лекук попущен.
Аноним 21/08/25 Чтв 07:56:34 1327445 133
>>1327400
Самая большая проблема с полученной от ии инфой всегда с её верификацией.
Аноним 21/08/25 Чтв 08:54:05 1327480 134
image 1880Кб, 1024x1536
1024x1536
>>1327399
бездарей и нахлебников пидорнули, ни что не мешает художникам с помощью нейросети штамповать пикчи, а с навыком рисования можно исправлять недочеты
Аноним 21/08/25 Чтв 10:35:47 1327510 135
image.png 141Кб, 1080x494
1080x494
image.png 231Кб, 1080x1027
1080x1027
image.png 287Кб, 1080x540
1080x540
Бенчмарки нового Дикпика
Аноним 21/08/25 Чтв 11:07:45 1327527 136
>>1327510
Чет я не понял, обычная модель ебет ризонер?
Аноним 21/08/25 Чтв 11:08:27 1327528 137
>>1327527
Это токены на третьем графике
Аноним 21/08/25 Чтв 11:12:24 1327533 138
🐳DeepSeek V3.1

Очередной апдейт V3 линейки, на той же архитектуре, но на этот раз апдейтнули и base модель. Похоже модель гибридная — ризонер и инстракт в одном флаконе.

Заметного прироста в интеллекте не замечено, но модель теперь тратит в разы меньше токенов. Это крайне полезно В чём-то релиз по духу похож на DeepSeek V2.5, вышедшего почти год назад — тогда линейку DeepSeek Coder смержили в основную. Так что есть нехилые шансы что свидетели релиза R2 его так и не дождутся.

Пока ждём пейпера, анонса и окончательного релиза весов, модель уже можно попробовать в чате.

chat.deepseek.com
Аноним 21/08/25 Чтв 11:13:56 1327535 139
Аноним 21/08/25 Чтв 11:18:47 1327542 140
>>1327427
Ты больших полноценных моделей в общем доступе вообще больше не увидишь, только дистилляты для дешевого инференса. Нейронки сейчас в стадии ранней эншитификации. Рыночек поделен между большими игроками, планка входа установлена достаточно высоко чтобы не впустить новых конкурентов, теперь мажоры будут стричь массы, выпуская худший продукт за те же деньги.
Аноним 21/08/25 Чтв 12:16:40 1327585 141
photo2025-08-21[...].jpg 51Кб, 1080x495
1080x495
photo2025-08-21[...].jpg 74Кб, 1080x1027
1080x1027
photo2025-08-21[...].jpg 57Кб, 1080x539
1080x539
Детали DeepSeek V3.1

Самый сильный прирост заметен в агентных бенчах и использованию инструментов. Это гибридная модель, где можно включать и выключать ризонинг. Инстракт режим модели заметно вырос по бенчам по сравнению . А вот прироста у ризонинг режима по сравнению с R1-0528 нет, но ризонинг теперь использует заметно меньше токенов при том же качестве (третья пикча).

Обновили и Base модель для лучшей работы с длинным контекстом — в 10 раз увеличили context extension с 32к токенов и в 3 раза с 128к токенов. Кроме этого модель тренировали в формате совместимом с mxfp8 и mxfp4, которые добавили в Blackwell.

С этим релизом обновили и официальное API — добавили режим совместимый с API Anthropic, так что туда теперь можно (https://api-docs.deepseek.com/guides/anthropic_api ) подключаться с Claude Code. Длину контекста в API расширили до 128к, плюс начали тестить улучшения для function calling.

Кроме этого с 5 сентября (16:00 UTC) в официальном API будет действовать новый прайсинг — убирают ночные (по китайскому времени) скидки и разницу в прайсинге между ризонинг и инстракт режимами. Новая цена за аутпут — $1.68 за миллион токенов (сейчас $1.1 за инстракт режим и $2.19 за ризонинг). Инпут токены стоят $0.07/миллион если они уже есть в кэше и $0.56 при промахе мимо кэша.

Модель уже с позавчера доступна в чате и API, а веса опубликованы (https://huggingface.co/deepseek-ai/DeepSeek-V3.1 ) на Huggingface.
Аноним 21/08/25 Чтв 12:16:53 1327587 142
>>1327399
У тебя в первой же истории сразу бинго: некий "физически недееспособный", который тем не менее может работать в магазине. Там или пиздобол, либо генетический биомусор, в любом случае, с творческим гением это не сильно сочетается. Судя по тому чем он занимался "рпг-арт" это какой-то или обоссаный фотобашер или бездушный говноклеп перерисобака. Ну что ж, люди изобрели цифровую копирку, и мясная стала не нужна. Неплохо бы заработать себе имя и иметь личных заказчиков, а не быть рисотокорем третьего говноразряда за миска риса в мобильном цеху.

Все эти пиздлявые истории объединяет одно: пенсия по шизе.
Аноним 21/08/25 Чтв 12:20:16 1327592 143
video2025-08-21[...].mp4 6657Кб, 1920x1080, 00:00:21
1920x1080
Nano-banana вышла, но есть нюанс

Google запускает новые инструменты для обработки изображений с помощью ИИ в приложении Google Photos.

— Сначала фича появится на Pixel 10.
— Постепенно станет доступна на Android и iOS в течение ближайших недель в приложении Google Photos.

Да, самая лучшая модель для редактирования изображений пока что доступна только на Pixel 10, и непонятно, будет ли она вообще в API и появится ли когда-нибудь в AI Studio или на сайте Gemini.
Аноним 21/08/25 Чтв 12:23:07 1327599 144
>>1327403
>OpenAI больше нечего будет предложить, пойдёт на дно, на фоне других гигантов Meta / Microsoft / Google и Китая
Эппл не идёт на дно десятилетиями, благодаря интеграции в американскую экономику, то есть экономику первой страны мира. Делают дешевое говношелезо в Китае? Охуенные кредиты на этот кал на Родине + нехилый приток бабла от варваров-каргокультистов, кобанчик из Третьего рима сыт и доволен. ОпенАИ уже сели в эту нишу. предоставля ллм студентикам, и американским бомжам со скидкой, за счет гос.дотаций, а когда развернут продолжат, переливая внешний инкам во внутренний ауткам. И все сыты и довольны, накатанная схема для множества их компаний. Главное в рекламу накидывать и сектантов поддерживать.
Аноним 21/08/25 Чтв 12:23:45 1327600 145
>>1327587
Коупи дальше, любо-дорого зоонаблюдать
Аноним 21/08/25 Чтв 12:26:15 1327608 146
>>1327592
> непонятно, будет ли она вообще в API и появится ли когда-нибудь в AI Studio или на сайте Gemini.
Разумеется никогда не появится.
Аноним 21/08/25 Чтв 12:27:30 1327610 147
>>1327600
Я лучше тебя репортну за разжигание срача такими скринами. например. Покоупишь там, посидишь, спокойно, без тряски, о том стоит ли срать этим протухшим за три года калом сюда.
Аноним 21/08/25 Чтв 13:01:12 1327643 148
>>1327587
Да там проще все, на святом западе просто проседание экономики подошло к той черте когда нормиса значительную часть времени волнует что пожрать, а на артсы, мувисы и игры ему как бы похуй уже.
Аноним 21/08/25 Чтв 13:02:21 1327645 149
>>1327403
> Как по мне всё, OpenAI больше нечего будет предложить, пойдёт на дно
Оракл только что вложил еще 25 лярдов в дата-центры для ОпенАИ. Ларри Эллисон наверняка знает, что там происходит в ОпенАИ за кулисами, какие у них там модели есть в загашнике, и на что они способны.
Аноним 21/08/25 Чтв 13:03:37 1327648 150
>>1327645
А что еще ораклу в принципе делать? В пошив футболок в кентукки вкладываться?
Аноним 21/08/25 Чтв 13:05:05 1327650 151
>>1327648
Могли бы в обычную облачную инфраструктуру вкладываться, а не в заточенную конкретно под ИИ
Аноним 21/08/25 Чтв 13:10:09 1327657 152
>>1327650
Это как кнопочный телефон купить вместо смартфона по той же цене
Аноним 21/08/25 Чтв 14:14:32 1327707 153
>>1327399

Умея рисовать можно лепить те же картинки, только быстрее и дешевле. Причём выставив отдельные ценники. Типа вот за поправленную генерашку без претензий к мелочам, а вот за ручную работу.

Высвободится прилично времени на другую работу.

У генераторов всё ещё большие сложности с интересными картинками, сюжетами, гармонией предметов в кадре для ведения взгляда. Да, просто в роли коммишек это никому нахуй не упало, сиськи давай. А вот для иллюстрации коммерческой генерашки всё ещё не пригодны.

2е как раз концептеров, которые могут в концепции а не в рандомное набрасывание гор и лесов в фотошопе до сих пор мало и они очень нужны.

3. «копирайтеры» — это обычно по факту пидарасы, которые делают рерайт. Или пишут довольно хуёвенький тупой текст без вкуса и смысла. Нейронка такое заменяет на 100%. Потому что это копирование и подражание. Ноль творчества.
Озвучка художественная от нейронок это просто пизда. Даже топовые GPT с самым дорогим синтезом, с придыханиями и смехом сыпятся на паузах и дефектах уже на первых 20 секундах.
А скорректировать это всё так же пиздец проблема.

Для переводов овервойсом ютубчика на другой язык годится, для кино или театра полностью дно.

Не знаю, слушаете ли вы «короче новости». Чел живой и по-прежнему вживую озвучивает. Казалось бы у него столько наговорено, что можно отдельно голос обучить. Только вот нахуй не надо, потому что будет дороже, хуже и с меньшим контролем.


3. Видеоредакторов? А какие модели умеют в монтаж и видеоредакцию?
Runaway с корректировками на пару секунд? Да, вещь охуенная и люто снижает затраты. Только вот раньше это было тупо невозможно в разумные сроки. Да и сейчас вон выпуклившуюся через костюм пипиську челопуку замазывали при большом участии ручного труда.
Если вообще не деформером.
Аноним 21/08/25 Чтв 14:23:23 1327718 154
>>1327587
Ну он-то в магазе тоже дизайны на футболки лепит.
Хотя это может быть пасхалка, намекающая на полный пиздёж.

Скажу от себя. Я делал буквально несколько коммишек с фурри-порно.
Рисовать я умел неплохо. А денег ну совсем не было. Не то чтобы «ой условия меня вынудили опуститься ДО ЭТОГО», просто не особо интересно это рисовать. А так порно нравится всякое нереалистичное.

Я подработал и свалил. Потому что увидел что там (без всякой ИИшки на тот момент) высокая конкуренция от тех, кто уже набил руку, наработал множество востребованных шаблонов, нанял подмастерий. И это прям фабрика-фабрика, творчества около нуля. Вкуса и культуры около нуля.
Денег у людей на изыски особо и нет. А те богачи, у которых есть на изыски или композиционно и технически сложные работы уже расхватаны самыми опытными художниками и на аукцион коммишек ходят скорее из альтруизма подкормить иногда относительно начинающих.

Я эту сферу немного прощупал. И я вижу, что там люди не особо требовательны. Там не будут просить перерисовать жест рук на конкретный как в коммерции, норм руки, примерно соответствуют картинке и ладно.

И даже если человек сам не умеет и не генерирует, он может погуглить любимого персонажа и из сотен тысяч уже черрипикнутых картинок черрипикнуть десяток, от которых у него шишка горит как спичечная головка.
Аноним 21/08/25 Чтв 15:55:34 1327851 155
1ш.JPG 9Кб, 519x95
519x95
>>1327707
>«копирайтеры» — это обычно по факту

Кстати, выдачу от ИИ интереснее читать чем сайты. Хотя должно быть наоборот всё, это сайты изначально должны были быть авторскими и интересными, а не написанными фрилансерами-женщинами, которые в большинстве тем не разбираются кроме шмоток, кухни, сплетен шоу-бизнеса и сериалов.
Аноним 21/08/25 Чтв 16:02:54 1327858 156
image.png 33Кб, 677x155
677x155
>>1327851
>а не написанными фрилансерами-женщинами
Я бы сказал, что тебя женщины выебали, но это не так. В СЕО Мужчин больше, это раз. Они не пишут полноценные тексты, это два. На биржах копирайтговна платят за "разбивание" текста словами для увеличение его уникальности. Это механическая работа за 5 рублей, ничего там человечного никогда не было даже 20 лет назад.
Аноним 21/08/25 Чтв 16:09:58 1327877 157
>>1327643
Вроде как нет.

>>1327718
Отчасти это так. Но вот это:

>И даже если человек сам не умеет и не генерирует, он может погуглить любимого персонажа и из сотен тысяч уже черрипикнутых картинок черрипикнуть десяток, от которых у него шишка горит как спичечная головка.

Не совсем так. Допустим решил я подрочить на Лоис Гриффин. Захожу на цивитай. Я там говна листал по тегам часа три, дошел уже до 1,5 стабла, но нормальных картинок прихватил всего штук пять. Многие вообще убогий сблев. Так же порносайты сейчас заказывают коммишены, как и раньше (это кстати с них ундустрия в рост пошла в 00х, я помню этот момент). И в том числе они заказывают коммишены у нейрохудожников и обмазчиков. Ну типа, надо слепым быть, чтоб не видеть.

Но в целом да, прошло уже три года? Кто работал ит хотел работать - тот продолжает работать. Отлетели только совсем тупоголовые мамкины криворукие вкатуны, и только по причине не желания осваивать новый софт. Ну так и в 90х отлетали художники, которые не хотели в цифру пересаживаться. Абсолютно нормальная хуйня.

>>1327645
>Оракл только что вложил еще 25 лярдов в дата-центры для ОпенАИ. Ларри Эллисон наверняка знает, что там происходит в ОпенАИ за кулисами, какие у них там модели есть в загашнике, и на что они способны.
Они знают, что за долги потом заберут эту инфраструктуру и могут потом сдавать в аренду.
Аноним 21/08/25 Чтв 16:30:15 1327897 158
>>1327851
Большинство сайтов скатилось до поискового скама.
Не важно с человеческим или машинным текстом.

Человеческий текст часто тоже жутко «машинная» и тупая работа.
Он по факту не для людей написан а для роботов.

>>1327858
этот прав.

>>1327877
Ну то что мусора гора — да. Только когда денег нет, роешься в мусоре. Нейроген либо для бедных либо для жадных.
При том что специализированные нейронки эт пушка.

У кого есть хоть немного КЦ, тот уже закажет человеку сгенерировать, проконтролировать, исправить или просто отыскать.
Аноним 21/08/25 Чтв 16:35:58 1327902 159
Осмелюсь спрогнозировать, что уже и так существующая тенденция разрастётся:
нормальный контент (сделанный человеком или тщательно отобранный и проверенный специалистом) будет располагаться на платных ресурсах (патреон/бусти) потому что в автоматизации сбора по копейке с миллиона заглянувших боты и бездушные конторы конкуренцию выиграют.

А вот штучный контент эти нелюди производить не могут. Да, он будет цениться куда меньшим количеством людей. Но на большие суммы с каждого.
Аноним 21/08/25 Чтв 16:39:30 1327907 160
>>1327902
>нормальный контент (сделанный человеком или тщательно отобранный и проверенный специалистом) будет располагаться на платных ресурсах
А что с фильмами последние 50 лет не так? Есть ТВ-кал который потоком снимают чтоб было куда рекламу вставлять и эфирную сетку забить, его показывают забесплатно. А есть фильмы идущие в кинотеатрах.
Аноним 21/08/25 Чтв 16:39:59 1327909 161
418.jpeg 21Кб, 750x600
750x600
>>1325178
китайцы как всегда сосут
Аноним 21/08/25 Чтв 16:59:17 1327926 162
image.png 706Кб, 990x695
990x695
Реддитор создал ИИ, который определяет рацион человека по его пердежу.

Нейросеть под названием FartGPT три месяца обучалась на звуках испускания газов, и теперь может классифицировать семь основных типов пердежа и их комбинации.

Основные достижения:
— По одному пуку ИИ может определить ваш рацион с точностью 87%;
— Алгоритм обучен создавать пердёжные симфонии и даже воспроизводить «Despacito»;
— При попытке сгенерировать «идеальный пердёж» модель выдала звук длиной 3,7 секунды, который заставил собаку автора заплакать, а соседа по комнате — съехать;
— Также FartGPT способен прогнозировать фондовый рынок на уровне 52%: акции пойдут вверх, либо вниз.

Сейчас разработчик ищет спонсоров. Он готов поделиться своей базой: 47 гигабайт чистого пердежа. Это 2,5 миллиона образцов, или три месяца непрерывного звучания.
Аноним 21/08/25 Чтв 18:10:16 1328046 163
>>1327926
>идеальный пердёж
Идеальный пердеж уже существует, это фильмы Нолана
Аноним 21/08/25 Чтв 18:23:29 1328088 164
>>1327907
Именно так. Хотя в кинотеатрах тоже попсы полно.

Но я имел в виду контент в инторнетах этих наших.
Аноним 21/08/25 Чтв 18:34:37 1328111 165
>>1328088
>Хотя в кинотеатрах тоже попсы полно.
Только в развитых странах. Вот в США кинотеатров мелких столько, что там тоже существует своего рода треш-сегмент. В РФ такого нет.
Аноним 21/08/25 Чтв 18:38:43 1328121 166
>>1328088
>Но я имел в виду контент в инторнетах этих наших.
В интернетах на стриминг-платформах такой же процесс есть. Холмарк с бесконечными одноклеточными парашами, ентот американскийканал с ниггерами, где такие же пораши но с ниггерами, ну ты понел короче. Это говно обычно эти платформы даже не покидает. Сам глянь: https://www.revry.tv/originals

После такого можно нейрокала не бояться, хуже уже не будет.
Аноним 21/08/25 Чтв 18:47:44 1328144 167
1зн.JPG 8Кб, 571x77
571x77
>>1328121
С помощью ИИ будут угонять идеи. Например взять фильмы, раньше киноиндустрия делала перерывы между выходом продолжения фильма лет на 5 или 10 чтобы подросли новые зрители для просмотра новой серии "Терминатора". Теперь же время сократится, будут выпускать кучи версий, например "терминатор" взгляд со стороны ИИ, а не людей.
Аноним 21/08/25 Чтв 18:52:32 1328153 168
1755248871813.png 45Кб, 633x883
633x883
Мне код не смог написать самый умный из нейро-идиотов opus 4.1 О каком АГИ вы тут вообще грезите.
Аноним 21/08/25 Чтв 18:56:46 1328156 169
>>1328046
А как же пердеж ртом Сэма Альтмана?
Аноним 21/08/25 Чтв 18:57:37 1328157 170
>>1328153
Клод кал сейчас, эталон пока что гемини
Аноним 21/08/25 Чтв 19:04:21 1328166 171
>>1328157
Клоп хотя бы мне помог, гомик мне просто хуйню нерабочую высрал, а потом начал срать "отладочной информацией"
Аноним 21/08/25 Чтв 19:14:16 1328177 172
>>1328153
Пробуй свежайшие топовые гемини и гопоту, курсор и квенкодера.
Аноним 21/08/25 Чтв 19:19:05 1328184 173
image.png 79Кб, 664x394
664x394
>>1328144
>Например взять фильмы, раньше киноиндустрия делала перерывы между выходом продолжения фильма лет на 5 или 10 чтобы подросли новые зрители для просмотра новой серии "Терминатора".
Ты маняшизу не пиши. Никто осмысленно никаких перерывов никогда не делал, то что ты пишешь это чушь. Есть деньги инвесторов на фильм, есть показатели кассы прошлой части. Если всё в началии - захуярят в максимально сжатые сроки, учитывая технические ограничения.

>Теперь же время сократится
Так это из-за нейронок по МКВ высрали за 10 лет дохуя фильмов и сериалов? Понятно. Там сука 2 фильма в год последние 10 лет и между ними серики.
Аноним 21/08/25 Чтв 19:22:25 1328190 174
1да.JPG 10Кб, 591x57
591x57
>>1328184
Это же фильмы франшизы - походу разные студии снимали.
Аноним 21/08/25 Чтв 19:33:45 1328211 175
>>1328190
Марвелом срет одна студия. Но причем тут это вообще? Не увиливай.
Аноним 21/08/25 Чтв 20:08:33 1328263 176
>>1328153
это не самый умный. тестируй гпт5 зинкинг и гемини дип ризонинг
Аноним 21/08/25 Чтв 20:10:08 1328265 177
>>1325178
это охуенный бенчик, почему раньше не было? охуеть
Аноним 21/08/25 Чтв 20:32:07 1328293 178
1т.JPG 12Кб, 817x157
817x157
>>1328211
Ты придумаешь хорошую идею, снимешь фильм, предвкушая что потом дело попрёт и будет продолжение, или даже сериал, будет бабло, пожизненный гонорар, просыпаешься, а школьники уже нагенерировали 100500 серий в разных вариациях по твоей идее.
Аноним 21/08/25 Чтв 21:05:51 1328353 179
>>1327610
Репортнул тебя за щеку
Аноним 22/08/25 Птн 02:00:58 1328658 180
image12.png 2117Кб, 1300x920
1300x920
76aeb3e0-6bbf-4[...].mp4 6122Кб, 832x480, 00:00:40
832x480
photo2025-08-22[...].jpg 42Кб, 1280x879
1280x879
Here are more M[...].mp4 2906Кб, 832x480, 00:00:35
832x480
image2.jpg 121Кб, 894x627
894x627
77cb214b-d42c-4[...].mp4 10195Кб, 832x480, 00:00:55
832x480
image4.png 2971Кб, 1920x1049
1920x1049
1d064a23-6061-4[...].mp4 12168Кб, 832x480, 00:00:53
832x480
Mirage 2 - Generative World Engine

Вы будете смеяцца, но у нас еще один генератор миров.

Первую версию показали с месяц назад, а вторая уже играбельная, причем прямо на сайте.

Загружаете свои киберпанк картинки, или детские рисунки, или любой концепт - и ну играть.

В отличие от Genie 3, там не столько ходилки, но и стрелялки среди управляющих элементов.
"Если Mirage 1 раскрыла необработанный потенциал модели мира в стиле GTA, то Mirage 2 делает гигантский шаг вперед: модель мира общего домена, которая позволяет вам мгновенно создавать, играть и преобразовывать любой игровой мир.

С Mirage 2 игра больше не ограничивается чужим миром. Это генеративная игра - создавать свои собственные миры, делиться ими с друзьями и формировать их в реальном времени по мере того, как вы исследуете их вместе с понимающим вас ИИ."



https://blog.dynamicslab.ai/
Аноним 22/08/25 Птн 02:03:52 1328661 181
photo2025-08-22[...].jpg 48Кб, 1280x647
1280x647
>>1328658
А ещё они подъёбывают гугл
Аноним 22/08/25 Птн 02:13:16 1328662 182
photo2025-08-21[...].jpg 139Кб, 1091x1109
1091x1109
Самая громкая статья месяца – Hierarchical Reasoning Model

Без предисловий, сразу главный результат: у авторов получилось сделать модельку всего на 27 миллионов (!) параметров, которая обошла o3-mini на ARC-AGI-1. Неудивительно, что об этой работе сейчас говорит все комьюнити, а авторы ARC-AGI даже сами написали большой разбор (https://arcprize.org/blog/hrm-analysis ) результатов модели на их бенчмарке.

Погнали разбираться.

Итак, вся архитектура состоит из двух рекуррентных модулей: быстрого низкоуровневого и медленного высокоуровневого. Первый отвечает за быстрые локальные вычисления и решения частных задач, а цель второго – абстрактно управлять процессом и ставить таски первому.

Суть в том, что они обновляются с разной частотой. Исходная задача разбивается на несколько циклов рассуждения. В каждом из них верхний модуль обновляется только один раз и дает новый контекст нижнему модулю, который в свою очередь делает много мелких шагов и ищет локальное решение.

Сколько будет таких итераций, модель решает сама. Останавливаться (или не останавливаться) в правильный момент ее специально учили с помощью RL. Так что «думать» она может и пару секунд, и пару часов.

Обучается HRM не совсем привычно для рекуррентной модели: здесь, вместо того чтобы сохранять все внутренние состояния, авторы решили обновлять градиенты только по финальному стейту. Удивительно, но факт – это работает.

Кстати, вся конструкция и принцип обучения очень похожи на то, как работает наш мозг. Некоторые области отвечают за абстракцию, другие – за конкретные моментальные действия, а общаются они посредством обратных связей. Здесь те же принципы иерархии (отсюда и название). Плюс, мозг тоже не хранит промежуточные траектории и к сходимости приходит через схожие волновые циклы.

Итог: модель для своего размера просто беспрецедентно хороша на решениях всяких головоломок типа судоку, лабиринтов и индуктивных задач. В общем, именно в тех областях, где привычные LLM обычно фейлятся. Конечно, особенно поражают результаты на ARC-AGI, которые мы описали в начале.

Революция или нет, но выглядит действительно очень изящно и эффектно.

Почитайте работу полностью тут: https://arxiv.org/abs/2506.21734
+ вот еще один отличный разбор на русском языке: https://www.sergeynikolenko.ru/blog/hierarchical-reasoning-model
Аноним 22/08/25 Птн 02:45:03 1328671 183
>>1328658
Кто-нибудь уже пробовал? Silksong хочу
Аноним 22/08/25 Птн 03:04:44 1328674 184
image.png 102Кб, 1006x90
1006x90
>>1328671
Очередь-хуйочередь
Аноним 22/08/25 Птн 03:06:12 1328675 185
>>1328662
Чекайте, что об этом забудут через неделю и мы останемся на той же самой, дефолтной архитектуре
Аноним 22/08/25 Птн 03:29:23 1328681 186
d9b387a1-906b-4[...].webp 40Кб, 828x552
828x552
unnamed-11-768x[...].png 25Кб, 768x272
768x272
Ещё одна статья про прорывную Hierarchical Reasoning Model:

Современные LLM, даже рассуждающие, всё равно очень плохи в алгоритмических задачах. И вот, кажется, намечается прогресс: Hierarchical Reasoning Model (HRM), в которой друг с другом взаимодействуют две рекуррентные сети на двух уровнях, с жалкими 27 миллионами параметров обошла системы в тысячи раз больше на задачах, требующих глубокого логического мышления. Как у неё это получилось, и может ли это совершить новую мини-революцию в AI? Давайте разберёмся…

Судоку, LLM и теория сложности
Возможности современных LLM слегка парадоксальны: модели, которые пишут симфонии и объясняют квантовую хромодинамику, не могут решить судоку уровня «эксперт». На подобного рода алгоритмических головоломках точность даже лучших LLM в мире стремится к нулю.

Это не баг, а фундаментальное ограничение архитектуры. Вспомните базовый курс алгоритмов (или менее базовый курс теории сложности, если у вас такой был): есть задачи класса P (решаемые за полиномиальное время), а есть задачи, решаемые схемами постоянной глубины (AC⁰). Трансформеры, при всей их мощи, застряли во втором классе, ведь у них фиксированная и не слишком большая глубина.

Представьте это так: вам дают лабиринт и просят найти выход. Это несложно, но есть нюанс: смотреть на лабиринт можно ровно три секунды, вне зависимости от того, это лабиринт 5×5 или 500×500. Именно так работают современные LLM — у них фиксированное число слоёв (обычно несколько десятков), через которые проходит информация. Миллиарды и триллионы параметров относятся к ширине обработки (числу весов в каждом слое), а не к глубине мышления (числу слоёв).

Да, начиная с семейства OpenAI o1 у нас есть “рассуждающие” модели, которые могут думать долго. Но это ведь на самом деле “костыль”: они порождают промежуточные токены, эмулируя цикл через текст. Честно говоря, подозреваю, что для самой LLM это как программировать на Brainfuck — технически возможно, но мучительно неэффективно. Представьте, например, что вам нужно решить судоку с такими ограничениями:

смотреть на картинку можно две секунды,
потом нужно записать обычными словами на русском языке то, что вы хотите запомнить,
и потом вы уходите и возвращаетесь через пару дней (полностью “очистив контекст”), получая только свои предыдущие записи на естественном языке плюс ещё две секунды на анализ самой задачи.
Примерно так современные LLM должны решать алгоритмические задачи — так что кажется неудивительным, что они это очень плохо делают!

И вот Wang et al. (2025) предлагают архитектуру Hierarchical Reasoning Model (HRM), которая, кажется, умеет думать нужное время естественным образом:

Тактовые частоты мозга и архитектура HRM
Нейробиологи давно знают, что разные области коры головного мозга работают на разных “тактовых частотах”. Зрительная кора обрабатывает информацию за миллисекунды, префронтальная кора “думает” секундами, а гиппокамп может удерживать паттерны минутами. Эти timescales измеряются обычно через временные автокорреляции между сигналами в мозге, результаты устойчивы для разных модальностей, и учёные давно изучают и откуда это берётся, и зачем это нужно:

Это не случайность, а элегантное решение проблемы вычислительной сложности. Быстрые модули решают локальные подзадачи, медленные — координируют общую стратегию. Как дирижёр оркестра не играет каждую ноту, но задаёт темп и структуру всему произведению, а конкретные ноты играют отдельные музыканты.

Авторы Hierarchical Reasoning Model (HRM) взяли эту идею и применили её к рекуррентным сетям. Глубокие рекуррентные сети, у которых второй слой получает на вход скрытые состояния или выходы первого и так далее, конечно, давно известны, но что если создать рекуррентную архитектуру с двумя взаимодействующими уровнями рекуррентности? Верхний уровень будет получать результат нескольких шагов нижнего уровня, возможно уже после сходимости, и работать медленнее:

Идея настолько простая, что даже удивительно, почему её не попробовали раньше (а может, уже пробовали?). По сути, мы просто обучаем две вложенные рекуррентные сети:

быстрый модуль (L) выполняет T шагов вычислений, сходясь к локальному решению;
медленный модуль (H) обновляется раз в T шагов, меняя тем самым контекст для быстрого модуля.
Но дьявол, как всегда, в деталях. Просто соединить две RNN-архитектуры недостаточно — они или быстро сойдутся к фиксированной точке и перестанут что-либо вычислять, или будут требовать огромных ресурсов для обучения. Нужны ещё трюки, и в HRM они довольно простые, так что давайте их тоже рассмотрим.

Важные трюки
Трюк №1: Иерархическая сходимость
Вместо одной большой задачи оптимизации HRM решает последовательность связанных задач. Быстрый модуль сходится, потом медленный модуль обновляется, и появляется новая точка сходимости для быстрого модуля. Для быстрого модуля всё выглядит как решение последовательности связанных, но всё-таки разных задач, и ему всё время есть куда двигаться. Это хорошо видно на графиках сходимости:

Трюк №2: Backpropagation, But Not Through Time
Обычно рекуррентные сети обучаются при помощи так называемого backpropagation through time (BPTT): нужно запомнить все промежуточные состояния, а потом распространить градиенты назад во времени. Хотя это вполне естественно для обучения нейросети, это требует много памяти и вычислительных ресурсов, а также, честно говоря, биологически неправдоподобно: мозг же не хранит полную историю всех активаций своих синапсов, у мозга есть только текущее состояние.

HRM использует идеи из Deep Equilibrium Models и implicit models — градиенты вычисляются только по финальным сошедшимся состояниям:

Получается, что хранить нужно только текущие состояния сетей; O(1) памяти вместо O(T)! Конечно, это не то чтобы сложная идея, и при обучении обычных RNN у неё есть очевидные недостатки, но в этом иерархическом случае, похоже, работает неплохо.

Трюк №3: Адаптивное мышление через Q-learning
Не все задачи одинаково сложны. HRM может “думать дольше” над трудными проблемами, используя механизм адаптивной остановки, обученный через reinforcement learning. Если судоку на 80% заполнено, то скорее всего хватит и пары итераций, а в начале пути придётся крутить шестерёнки иерархических сетей подольше. Это тоже не новая идея — Alex Graves ещё в 2016 предлагал adaptive computation time for RNNs — но в этом изводе результаты действительно впечатляющие, всё хорошо обучается и работает:

Результаты

Экспериментальные результаты тут, конечно, крайне впечатляющие. Можно сказать, переворачивают представление о том, что такое “эффективность” в AI. Всего с 27 миллионами параметров, обучаясь примерно на 1000 примеров, HRM получила:

40.3% на ARC-AGI-1 (тест на абстрактное мышление, где o3-mini даёт 34.5%, а Claude — 21.2%);
55% точных решений для экстремально сложных судоку (здесь рассуждающие модели выдают устойчивый ноль решений);
74.5% оптимальных путей в лабиринтах 30×30 (где, опять же, рассуждающие модели не делают ничего разумного).

Для контекста скажу, что задачи действительно сложные; например, судоку в тестовом наборе требуют в среднем 22 отката (backtracking) при решении алгоритмическими методами, так что это не головоломки для ленивого заполнения в электричке, а сложные примеры, созданные, чтобы тестировать алгоритмы. Вот, слева направо, примеры заданий из ARC-AGI, судоку и лабиринтов:

Заглядываем под капот: как оно думает?
В отличие от больших моделей, у которых интерпретируемость потихоньку развивается, но пока оставляет желать лучшего, HRM позволяет наглядно визуализировать процесс мышления:

Здесь хорошо видно, что:

в лабиринтах HRM сначала исследует множество путей параллельно, потом отсекает тупики;
в судоку получается классический поиск в глубину — заполняет клетки, находит противоречия, откатывается;
а в ARC-задачах всё это больше похоже на градиентный спуск в пространстве решений.

Продолжение статьи ниже:
Аноним 22/08/25 Птн 03:30:31 1328683 187
unnamed-14-768x[...].png 82Кб, 768x364
768x364
>>1328681
Спонтанная иерархия размерностей
Я начал этот пост с аналогии с мозгом. Они часто в нашей науке появляются, но обычно не имеют особенно глубокого смысла: в мозге нет backpropagation, как следствие там совсем другая структура графа вычислений, и аналогии редко выдерживают этот переход. Но в данном здесь параллель оказалась глубже, чем даже изначально предполагали авторы. После обучения в HRM сама собой развивается “иерархия размерностей” — высокоуровневый модуль работает в пространстве примерно в 3 раза большей размерности, чем низкоуровневый (центральный и правый столбцы):

И оказывается, то точно такая же организация наблюдается в мозге мыши (Posani et al., 2025; левый столбец на картинке выше)!

Этот эффект не был задан через гиперпараметры, а возник сам собой, эмерджентно из необходимости решать сложные задачи. Тут, конечно, результат не настолько мощный, чтобы рассуждать о каком-то фундаментальном принципе организации иерархических вычислений, который независимо открывают и биологическая эволюция, и градиентный спуск… но вот я уже порассуждал, и звучит довольно правдоподобно, честно говоря.

Заключение: ограничения и философствования
Во-первых, давайте всё-таки не забывать важные ограничения HRM:

все тесты были сделаны на структурированных задачах (судоку, лабиринты), а не на естественном языке;
результаты на ARC сильно зависят от test-time augmentation (1000 вариантов каждой задачи);
для идеального решения судоку нужны все 3.8M обучающих примеров, а не заявленные 1000.
И главный вопрос, на который пока нет ответа: масштабируется ли это до размеров современных LLM? Если да, то это может быть важный прорыв, но пока, конечно, ответа на этот вопрос мы не знаем.

И тем не менее, HRM побуждает слегка переосмыслить, что мы называем мышлением в контексте AI. Современные LLM — это всё-таки по сути своей огромные ассоциативные машины. Они обучают паттерны из триллионов токенов данных, а потом применяют их, с очень впечатляющими результатами, разумеется. Но попытки рассуждать в глубину пока всё-таки достигаются скорее костылями вроде скрытого блокнотика для записей, а по своей структуре модели остаются неглубокими.

HRM показывает качественно иной подход — алгоритмическое рассуждение, возникающее из иерархической архитектуры сети. HRM может естественным образом получить итеративные уточнения, возвраты и иерархическую декомпозицию. Так что, возможно, это первая ласточка того, как AI-модели могут разделиться на два класса:

ассоциативный AI вроде LLM: огромный, прожорливый к данным и предназначенный для работы с естественным языком и “мягкими” задачами;
алгоритмический AI вроде HRM: компактный, не требующий больших датасетов и специализированный на конкретных задачах, для которых нужно придумывать и применять достаточно сложные алгоритмы.
Разумеется, эти подходы не исключают друг друга. Вполне естественно, что у гибридной модели будет LLM для понимания контекста и порождения ответов, которая будет как-то взаимодействовать с HRM или подобной моделью, реализующей ядро логических рассуждений. Как знать, может быть, через несколько месяцев такими и будут лучшие нейросети в мире…

https://www.sergeynikolenko.ru/blog/hierarchical-reasoning-model
Аноним 22/08/25 Птн 04:03:05 1328688 188
photo2025-08-21[...].jpg 85Кб, 1304x1260
1304x1260
Илон Маск: Grok 5 может стать настоящим AGI

Илон Маск заявил, что будущая модель Grok 5 от xAI может оказаться подлинным ИИ-агентом уровня AGI.

— Релиз ожидается в конце 2025 года.
— Обучение, начнётся в следующем месяце.
— Маск крайне воодушевлён проектом и намекает, что это будет прорывная модель.


Верим? Маск что-то похожее говорит про все модели, которые он собирается выпустить, а на деле они получаются не такими уж и «прорывными».
Аноним 22/08/25 Птн 04:03:27 1328689 189
photo2025-08-21[...].jpg 109Кб, 1200x1200
1200x1200
Google готовится завтра выпустить Veo 3 для бесплатных пользователей в Gemini.

TPU готовятся
Аноним 22/08/25 Птн 04:24:50 1328699 190
14101495259340.jpg 44Кб, 476x399
476x399
>>1326594
тоже об этом подумал
Аноним 22/08/25 Птн 04:41:15 1328705 191
1755826874080.png 94Кб, 960x540
960x540
>>1328662
>>1328681
>>1328683
Почему стоимость инференса такая ебанутая для 27 миллионов параметров? Такое ощущение, что хоть модель и маленькая, для выполнения таски требуется огромное количества аутпута, то есть скейлинг через инференс, по типу ризонинг моделей. Это конечно круто и т.д., но даже если этот метод скейлится и работает на больших моделях, то для того чтобы выполнять таски asi уровня придется запускать одну модель на самом большом датацентре и ждать дни на выполнение.
Аноним 22/08/25 Птн 05:57:49 1328726 192
>>1328681
>>1328683
>>1328662

Охлаждаем траханье по поводу Hierarchical Reasoning Model. Вышла критикующая статья:
https://arcprize.org/blog/hrm-analysis

Если кратко, то суть такая: Иерархическая архитектура не так важна: Замена HRM на трансформер того же размера (27M параметров) дала почти идентичные результаты (~5% разницы). Это говорит о том, что иерархическая структура (H и L модули) не является основным фактором успеха.
Фактором успеха в основном является итеративное уточнение предсказаний (передача выхода модели обратно на вход), что значительно повышает производительность.
Если провернуть это с трансформером, то получаем такой же результат. Но у этого подхода есть множество ограничений при масштабировании, которые заебёшься перечислять. Быть может этот подход в будущем смогут как-то оптимизировать и применить в каком-то виде, ну а пока продолжаем зимовать.
Аноним 22/08/25 Птн 06:11:37 1328728 193
>>1328726
Оперативно перекрывают, сегодня авторы модельки таинственным образом бесследно исчезнут...
Аноним 22/08/25 Птн 08:42:19 1328758 194
>>1328728
>Оперативно перекрывают
Ну иди напиши нам на этой архитектуре великий СелестИИ, раз ты такой умный и думаешь что эта хуйня может ебать модели на порядки больше ее. Как раз твоей 3060 должно хватить на обучение.
Аноним 22/08/25 Птн 09:42:32 1328772 195
>>1328726
>>1328662
Видишь китайцев/корейцев в авторах: перед тобой неработающая хуйня.
Аноним 22/08/25 Птн 10:04:49 1328775 196
Без паники! Похуй на эти новые архитектуры. Трансформер и так каждые пару лет считай становится новой архитектурой. GPT-3 имел 175 миллиардов параметров, а сегодня его ебут модели на 8 миллиардов параметров. Если бы вы об этом рассказали кому-нить пару лет назад, он бы подумал, что это новая архитектура, и по правде говоря, был бы недалеко от истины, так как трансформер сегодня и трансформер три назад - штуки довольно разные. Его постоянно оптимизируют и дорабатывают. Даже вон в критикующей статье показали как можно видоизменить трансформер, чтобы он был на уровне той умной модельки при крошечном размере. Потенциал трансформера ещё очень далёк от полного раскрытия, так что считайте, что через пару тройку лет у нас реально будет новая архитектура, пусть она и будет оставаться трансформером.
Аноним 22/08/25 Птн 10:05:53 1328777 197
>>1328772
опенаи из них состоит
Аноним 22/08/25 Птн 10:57:18 1328821 198
>>1328688
А может и не оказаться.
Аноним 22/08/25 Птн 11:00:20 1328823 199
>>1328777
Поэтому ГПТ5 такой обосратый вышел.
Аноним 22/08/25 Птн 11:02:20 1328825 200
>>1328823
Pro версия лучше любой другой на рынке
Аноним 22/08/25 Птн 11:19:34 1328837 201
>>1328263
> гемини дип ризонинг
как его включить? только финкинг есть
Аноним 22/08/25 Птн 11:22:57 1328840 202
Безымянпапапаный.jpg 322Кб, 723x1207
723x1207
>>1328726
Ответ автора HRM на критику модели:

Благодарим @arcprize
за воспроизведение и проверку результатов!

ARC-AGI-1: публичный 41% pass@2 - полу-приватный 32% pass@2
ARC-AGI-2: публичный 4% pass@2 - полу-приватный 2% pass@2

Из-за различий в тестовых средах определённая степень вариации в результатах является приемлемой. Согласно тестам, проведённым на нашей инфраструктуре, открытая версия HRM на нашем GitHub может достигать результата 5,4% pass@2 на ARC-AGI-2. Мы приглашаем всех запустить её на своей инфраструктуре и поделиться своими результатами~
Это наша первая заявка в таблицу лидеров, и это хорошая отправная точка. Мы благодарны всем за вашу поддержку и отзывы по HRM, как до, так и после нашего появления в таблице лидеров ARC. Всё это вдохновляет и мотивирует нас на улучшения.
Иерархическая архитектура предназначена для разрешения преждевременной сходимости в задачах с длинным горизонтом, таких как судоку уровня мастера, которые требуют часов для решения человеком. Смотрите сравнение с простым рекуррентным Transformer. Такая длинная цепочка может не быть необходимой для задач ARC, и мы использовали только соотношение high-low 1/2. Более крупные соотношения часто требуются для оптимальной производительности в задачах судоку.

В случае ARC-AGI успех HRM является свидетельством способности модели проявлять fluid intelligence — то есть её способность выводить и применять абстрактные правила из независимых и плоских примеров. Мы рады, что в недавнем посте в блоге было обнаружено, что внешний цикл и аугментация данных необходимы для этой способности, и мы особенно благодарим
@fchollet
@GregKamradt
@k_schuerholt
за то, что указали на это.
Наконец, мы ускоряем итерации модели HRM и постоянно расширяем её пределы, с хорошим прогрессом на данный момент. В то же время мы считаем, что иерархическая архитектура высокоэффективна во многих сценариях. В будущем мы сделаем дальнейшие целевые обновления архитектуры и проверим её на большем количестве приложений. Мы также выпустим FAQ, чтобы ответить на ключевые вопросы, поднятые сообществом. 🧠 Следите за обновлениями!
Аноним 22/08/25 Птн 11:28:32 1328844 203
>>1328825
Потому что у них китайцев все еще меньше, чем у остальных. И больше бабок.
Аноним 22/08/25 Птн 14:26:43 1329058 204
>>1328688
маск лучший продавец воздуха
Аноним 22/08/25 Птн 14:57:15 1329084 205
робот пикапер.mp4 4014Кб, 360x640, 00:00:55
360x640
Ну и как теперь конкурировать за тян?
Аноним 22/08/25 Птн 15:45:38 1329127 206
>>1329084
1. Управляется оператором-человеком
2. Реклама магазина роботов
Аноним 22/08/25 Птн 17:23:07 1329217 207
>>1328658
Вещь прикольная как лабораторная.
Но очень заметно как при повороте камеры в область за кадром стилистика резко меняется на очень типовую.

А у меня и вовсе картинка деградировала за секунды до 3д двухтысячных с плохим освещением
Аноним 22/08/25 Птн 17:28:20 1329223 208
>>1328671
Я попробовал.
Управление отваливается, картинка очень быстро деградирует до типового стиля, формы и пространство не выдерживаются.

Это забавно и это достижение если смотреть как на лабораторный тест. Но это неприменимо совершенно. Даже когда задача сделать скриншот той же картинки чуть под другим углом.
Аноним 22/08/25 Птн 17:46:58 1329249 209
>>1328658
Это пиздец. Я никогда так мощно не кумил прежде.
Аноним 22/08/25 Птн 18:09:36 1329272 210
>>1328840
Ащемта они правы, нужно ждать и критики и энной итерации развития, чтобы понять, успешное ли, перспективное ли.
Аноним 22/08/25 Птн 20:23:13 1329366 211
земля эй.mp4 18429Кб, 648x1152, 00:01:43
648x1152
появляются первые достойные творения с помощью ии
Аноним 22/08/25 Птн 20:33:04 1329373 212
Аноним 22/08/25 Птн 20:47:31 1329382 213
>>1329366
>>1329373
Если бы это видео было сделано до эпохи ИИ, года три назад, с помощью cgi-графики, то все бы усирались от восторга. Это как с Аркейном (анимационный сериал по лиге легенд), от которого все ссались кипятком, но если людям сказать, что его создавали через ИИ, то они сразу начинают фыркать носом и доебываются до графона и кривых анимацией, лол
Аноним 22/08/25 Птн 21:05:43 1329413 214
>>1329382
Тут не графический кал. Тут концептуальный высер. Высер сделала не нейронка, а те кто ее мучили.
Аноним 22/08/25 Птн 21:08:33 1329417 215
>>1329413
высер охуенный, тут гемора на монтаже было. понятно что здесь собирается штук 30-40 минивидосиков
Аноним 22/08/25 Птн 21:09:52 1329418 216
>>1329366
Постоянно какие-то панельки, гопники, поле чудес в стиле джо-джо, советские мультики. Уже тошнит от этого нормисного стиля генераций основанного на ностальгии и "эта жи наше, люди из снг поймут"
Аноним 22/08/25 Птн 22:59:40 1329505 217
>>1329417

>высер охуенный
>винегрет из ублюдских визуальных штампов

Быдло, успокойся. Катись нахуй на пикабу

>>1329418

Двачую, но с оговоркой: иногда хрущевочная ВСЖ-ебатория реализуется заебись, справедливости ради, как в какой-нибудь халф лайф 2, или в ночном дозоре или даже в нижнеинтернетовских нарезках треш-стримов
Аноним 22/08/25 Птн 23:25:45 1329555 218
CEO Microsoft AI Мустафа Сулейман опубликовал очень необычное для CEO эссе

Называется текст "Мы должны учить ИИ для человека, а не быть человеком". В нем нет обещаний AGI, громких слов про ускорение прогресса и лекарства от всех болезней, как в эссе других глав компаний (не будем показывать пальцем).

А основная мысль вместо всего этого вот в чем: нельзя пытаться наделять ИИ признаками человека. Это создает ложное ощущение того, что это уже не машина, а что-то живое и чувствующее. Мустафа называет это SCAI — Seemingly Conscious AI, то есть AI, который кажется нам сознательным.

При этом такой SCAI либо уже частично существует, либо может появиться в ближайшие несколько лет. Ключевые характеристики: хорошее владение языком (есть), проявление эмпатии (есть), способность помнить детали прошлых диалогов (почти есть), утверждения типа "я видел/слышал/думаю/чувствую" (уже встречаются), идентичность личности и внутренняя система целей и ценностей.

Суть в том, что допустить окончательно появление SCAI нельзя. Симуляция сознания не делает ИИ реально сознательным, но общество может начать относиться к нему, как к личности, и ничем хорошим это не закончится.

Сулейман описывает целое явление "psychosis risk" (риск психоза), когда люди начинают настолько верить в иллюзию сознательности ИИ, что могут развивать эмоциональную зависимость, верить в права и чувства модели.

И таких примеров полно уже сейчас: люди влюбляются в чат-ботов, дружат с ними, начинают защищать их права и теряют связь с реальностью. Просто пока этот эффект не такой массовый – все может быть гораздо хуже.

Так что главная идея из эссе: ИИ должен существовать только как инструмент для человеческой пользы, а не как цифровая личность. От имитации чувств, стремлений или желания быть самостоятельным нужно отказаться.

ИИ должен открыто декларировать, что он не человек и не сознательное существо. В его личность должны быть встроены фичи (и Мустафа как раз призывает на законодательном уровне утвердить их перечень), которые ломают иллюзию личности – чтобы пользователи не забывали, что общаются с программой.

Вот такая вот интересная позиция.

mustafa-suleyman.ai/seemingly-conscious-ai-is-coming
Аноним 22/08/25 Птн 23:45:51 1329581 219
Помните классику?
Ученый на интервью: «Все мои суждения бессмысленны, если они вырваны из контекста». Заголовок в газете на следующий день: «Знаменитый ученый признался, что все его суждения бессмысленны!»
Вот буквально это проделали журналисты и эксперты с недавним отчетом MIT о «полном провале ИИ-инициатив в корпорациях». Велик шанс, что вам на днях попадались заголовки про «всего 5% ИИ-инициатив успешны» и «ИИ провален в 95% случаев». Внимательно прочитать 26 страниц текста с картинками, похоже, мало кто смог.
Поэтому порадовала редкая статья, где автор с некоторым недоумением замечает, что отчет-то совсем о другом — если его прочитать. Он о том, что сотрудники массово и добровольно используют публично доступный ИИ в своей повседневной работе (и не пользуются корпоративными решениями в силу их очевидно более низкого качества).
a closer reading tells a starkly different story — one of unprecedented grassroots technology adoption that has quietly revolutionized work while corporate initiatives stumble. Это не проблемы ИИ, а полная некомпетентность руководителей, поэтому — уникальный случай! — происходит «революция снизу»: researchers found that 90% of employees regularly use personal AI tools for work. И вот про эти 90% не написал никто. Поразительно, но сформировалась «теневая экономика ИИ», не попадающая в корпоративные отчеты: Far from showing AI failure, the shadow economy reveals massive productivity gains that don’t appear in corporate metrics.
Почитайте материал по ссылке, если уж не сам отчет, там много интересных примеров:
https://venturebeat.com/ai/mit-report-misunderstood-shadow-ai-economy-booms-while-headlines-cry-failure/
Аноним 22/08/25 Птн 23:46:24 1329583 220
>>1329555
>Кто-то проперделся ртом на бесполезную тему
Занюхиваем
Аноним 22/08/25 Птн 23:53:01 1329588 221
Отчет MIT о том, что 95% компаний получают "нулевую отдачу" от инвестиций в генеративный AI, спровоцировал вполне предсказуемую распродажу. Nvidia потеряла 3.5%, хотя буквально недавно стала первой компанией с капитализацией в $4 трлн. Palantir и Arm упали еще сильнее — на 9.4% и 5% соответственно.

Довольно любопытно, что самое большое падение показали Oracle и AMD — как раз те компании, которые демонстрировали лучшую динамику с мая — на 5.9% и 5.4% соответственно.

Забавно, что это случилось из-за неправильной интерпретации статьи журналистами.

https://www.ft.com/content/33914f25-093c-4069-bb16-8626cfc15a51
Аноним 23/08/25 Суб 00:04:31 1329607 222
>>1329555
>Мустафа называет это SCAI — Seemingly Conscious AI
Коупинг агиблядей.
Аноним 23/08/25 Суб 00:06:40 1329612 223
>>1329418
>"эта жи наше, люди из снг поймут"
Но там больше на восточную европу похоже, чем на снг.
Аноним 23/08/25 Суб 00:07:57 1329615 224
>>1329417
>тут гемора на монтаже было
Примерно ноль. Генеришь картинки в одном стиле чутка меняя промпт, а потом хуяришь их одну за другой. Где ты там монтаж увидел? Они дажене в такт музыке меняются.
Аноним 23/08/25 Суб 00:08:39 1329617 225
>>1329382
>года три назад, с помощью cgi-графики, то все бы усирались от восторга
Так есть там какой то петрович с киберкоровами.
Аноним 23/08/25 Суб 00:10:22 1329621 226
>>1329588
На реддитах уже о лопающемся пузыре и новой ИИ зиме заговорили. Забавно будет, если до конца года все ебанется.
Аноним 23/08/25 Суб 00:22:46 1329630 227
>>1328688
>
>Илон Маск: Grok 5
Неплохо бы сперва грок 4 выпустить.
Настройки X
Ответить в тред X
15000
Добавить файл/ctrl-v
Стикеры X
Избранное / Топ тредов