Предположим, что вы хотите прочитать текст по некой сложной и непонятной теме (например, теория струн). Скорее всего, вам будет ничего не понятно. Но почему? Потому что отсутствует контекст. А что такое контекст? Ища ответ на этот вопрос, я просмотрел несколько сотен книг и статей по разным дисциплинам. Не найдя конкретного ответа, я пришел к своему определению контекста.Непонимание – это отсутствие контекста.Контекст – это совокупность связей между понятиями.Если совокупность связей между понятиями ясна, то можно утверждать, что контекст ясен и текст понятен.Таким образом человеческое знание представляется в виде сети из связанных между собой понятий. Задача образования состоит в том, чтобы человек выстроил у себя в голове сеть связанных между собой понятий, и научился по ней мысленно быстро перемещаться, делая умозаключения (операции с понятиями). Основываясь на таком подходе к структуре человеческого знания, можно создать сервис, который бы представлял сеть знаний конкретного человека и давал возможность для добавления новых понятий и редактирования связей между ними.
>>430355 (OP)>Непонимание – это отсутствие контекста.>Контекст – это совокупность связей между >понятиями.Непонимание – это отсутствие смысла.Смысл – это совокупность связей между понятиями.не изобретай новые слова, анон. Если уж ты спиздил слово content c английского вот и используй его с тем смыслом которое оно там имеет, а не изобретай миллионное слово для и без того переусложнённого без необходимости русского языка.
>>430355 (OP)>А что такое контекст? Ища ответ на этот вопрос, >я просмотрел несколько сотен книг и статей по >разным дисциплинам.Лучше бы словарь английского языка открыл. Этакие словечки появляются потому что горе-переводчики плохо знают английский и не осиливают перевести его, и вводят в бедный и несчастный русский язык очередное ненужное слово.
Текст. Контекст. Ну? Контекстэтотипа подтекстже т.е. маняфантазии читателей о записях автора.Например, каков контекст двустрочия из тихотворения ЛермонтоваПишу этот стих я нетвердой рукоюА Терек гремит подо мной.Давай, к доске, фантазёр
>>430355 (OP)Оп, это называется "тезаурус". в современной лингвистике — особая разновидность словарей, в которых указаны семантические отношения (синонимы, антонимы, паронимы, гипонимы, гиперонимы и т. п.) между лексическими единицами. Тезаурусы являются одним из действенных инструментов для описания отдельных предметных областей.В отличие от толкового словаря, тезаурус позволяет выявить смысл не только с помощью определения, но и посредством соотнесения слова с другими понятиями и их группами, благодаря чему может использоваться для наполнения баз знаний систем искусственного интеллекта.https://ru.wikipedia.org/wiki/%D0%A2%D0%B5%D0%B7%D0%B0%D1%83%D1%80%D1%83%D1%81>Ища ответ на этот вопрос, я просмотрел несколько сотен книг и статей по разным дисциплинам.Надо было смотреть в сторону natural language processing и моделей типа word2vec, relaxed word's mover distance итд. Очень хорошо начинаешь понимать, как устроен язык, когда можешь все это пощупать буквально, а не только формулы посмотреть, хотя и это очень помогает. Хотя на русском языке на эту тему все равно нет ничего интересного, а во всякой гуманитарщине на тему языка нет ничего интересного в принципе.
>>430355 (OP)Кроме карты связей необходим еще механизм реагирующий на внешние воздействия с учетом построенной карты и постоянно ее перестраивающий. По ОПу получается что понимание это книжный шкаф, хотя на самом деле оно только может быть у того кто в этот шкаф заглядывает.
>>430396>а во всякой гуманитарщине на тему языка нет ничего интересного в принципе.У тебя просто контекст в этой области отсутствует, поэтому special4u в доступном виде создаётся, и сейчас стало намного больше работ на стыке.
Связи между понятиями не дают учёта семантики самих понятий. Думаю, с такой аппроксимацией знаний пора завязывать. Сложно сказать что есть непонимание, самое близкое это отсутствие смысла. Слова меняют семантику в зависимости от контекста, здесь контекст это набор других понятий(слов), а вернее их семантика. Кисть руки, кисть художника.
>>430355 (OP)>что такое контекст? Ища ответ на этот вопрос, я просмотрел несколько сотен книг и статей по разным дисциплинамвся суть гуманитария. Вместо того, чтобы прочитать несколько книг по физике и понять теорию струн читает сотни книг по какой-то хуйне, которая ни на шаг не приближае его к цели.
>>430492>Предположим, что вы хотите прочитать текст по некой сложной и непонятной теме (например, теория струн)Считаешь чтобы понять теорию струн нужно читать книги по лингвистике?
>>430491Это ж пример просто хули ты доебался?Но к слову я вот читаю книги по теории струн на самом деле КТП и постоянно возникают мыслишки по поводу природы "понимания" примерно как у ОПа.>прочитать несколько книг по физике и понять теорию струнТы думаешь это тоже что и прочитать несколько книжек Донцовой? А вот хуй.
История про нейроную сеть 80-ых годов: Стояла задача автоматически распознать танк на фотографии. На тестовой и обучающих выборках был достигнут высокий процент узнавания(видимо по тем временам). На контрольной - ели-ели узнаёт. Стали разбираться конкретно в чём дело. Оказалась, что на всех фотографиях с танком была определённая погода и сеть обучилась именно на признаки типа цвет неба и т. п. Думаю по личному опыту, каждый понимает что и ччеловек этому подвержен. Как назвать это состояние ? Понимает или нет ?
>>430505>мыслишки по поводу природы "понимания"Меня тоже часто посещают. Знаю электрическую цепь не требующую знаний выше школьной программы 8 класса, разве что суть заземления. Но ей можно тралить в /ra мало-кто сможет описать как она работает. Нет смонения, что люди понимают больше меня и вообще много в схемотехнике и электротехнике. Но при виде этой цепи все почему-то думают не о том и неправильно объясняют числа на амперметре. А когда расскажешь как верно все сразу понимают.Если и есть в мозгу связи между понятиями, то порядок поступления фактов + эмоции наводят такие сигналы, что не все связи активируются, по крайней мере не всегда. Выходит что понимание завязано на память и способ её работы, скорость доступа и выборочность доустпа.
>>430355 (OP)не поймёшь ты этот текст либо потому, что ты дурак и в принципе ничего не можешь усвоить (биомасса обыкновенная), либо из-за предозировки терминами, которые так любят пихать во всякие научные работы, ни один из них не объясняя, из-за чего трудно понять какие-то отдельные статьи просто потому, что ты не настолько этот раздел задротил
Соласен с аноном. Смысл - это совокуность связей межу понятиями. Причем под связью понимается в предложении: "Математика доводит до шизофрении". Связь между математикой и шизофренией.
>>430554>>430486> Связи между понятиями не дают учёта семантики самих понятий.> Смысл - это совокуность связей межу понятиями.Смысл слова, термина, его семантика - это его использование. Именно это даёт возможность не только говорить о связях слова с другими, но и рассчитывать это, анализируя частоты появления этого слова в окружении других. Skipgram как пример такой модели. Все очень просто на самом деле, гуманитарщина только усложняет понимание, объясняя одну неведомую хуйню с помощью другой ещё более неведомой. Зачем наводить тень на плетень где все ясно и понятно?
>>430568>Зачем наводить тень на плетень где все ясно и >понятно? Что бы все охуели от непонимания, а ты такой как прынц на белом коне, гляди чернь, какой я умный! (а на самом то деле как мусорщик спиздил с Европы пятьсот слов и издеваюсь над русскоязычными.)
>>430505В КТП есть такой прикол, по крайней мере в некоторых изложениях, например у Фейнмана, мы рассматриваем систему внутри коробки (и у меня тут примерно такие мысли - эээ... че за нахуй? какой нахуй коробки?) да еще накладываем переодические граничные условия т.е. как бы получается склеиваем противоположные стороны (ну ни хуя ж себе?). А потом берем и устремляем все это в бесконечность.Вот такой прикол. Причем в самом начале.Но есть и другие изложения, "безкоробочные". Можно взять сразу готовые решения, например.Можно ли сказать что я понял этот прием? Пожалуй, я смог через него переступить и идти дальше.Можно ли понять теорию если она не полна, противоречива, и излагается в разных местах по разному? Получается что можно, так и живем.
>Смысл слова, термина, его семантика - это его использование.Речь не о смысле понятия, а о смысле текста, составленного из них. Смыслы – это то, что делает знаковую систему текстом.В. Налимов
>>430587> Речь не о смысле понятия, а о смысле текста, составленного из них.То же самое. Н-ка букв, сентенция, параграф, документ. Разница есть, но она учитывается в алгоритмах.> Смыслы – это то, что делает знаковую систему текстом.Набор слов, бесполезный на практике. Смысл - применение знака, знакосочетания итд.
>>430591>Смысл - применение знака, знакосочетания итд.Вот мы построили граф связей, выделили на нём тематические области сильной связности, теперь для каждого слова у нас есть вероятность принадлежности к некоторой теме. Т. е. мы видим с какими другими понятиями оно часто употребляется. Правильно понимаю твою мысль ? Слова типа междометий, союзов окажутся во многих темах равновероятно. По такой модели не возможно понять их смысл, только смотря на соседние с ними в тексте слова. А в жизни мы можем сказать "бля" без других слов многими способами и будет понятно на слух что мы в это слово заложили. Контекст это не связи, в речи мы его выражаем интонацией. Также те кто меня услышат, могут и не понять почему я произнёс матное слово. Т. е. и связи, и интонация это лишь модели этого контекста, а вот что он есть на самом деле ? Более того можно эффективно доносить смысл без слов: взглядами жестами. Но, это всё тоже признаки, сиганлы, можно просто больший граф сделать для всего этого, и по нему будут точнее вероятности для конкретного случая. Я хочу такие вопросы поставить: 1) по какому набору признаков лучше строить модель контекста(слова, звуки, жесты, мимика) 2) Какой набор признаков будет гарантированно наводить контекст в человеке ? У него же в голове уже есть контекст, причём другой. Вот как гарантированно перебить его контекст нужным, чтобы информация дошла до него и он понял ? Провал создания контекста-непонимание. Плохое наведение контекста- это будет как здесь >>430517.
>>430591Ещё по поводу именно понимания, а не смысла. Есть ситуации, когда пониманием зовётся не точное копирование человеком графа связей и понятий, а именно демонстрация им быстрых операций на ними. В школе детям объясняют тему на физике, считать они умеют. Им дают задачи. Не все из тех кто может всё повторить могут решить задачу. Т. е. они именно запомнили текст, не понимая его. Выучили как стихи на литературе, саму форму, но не содержание. Граф понятий в голове у них есть. Они воспроизводят текст своими словами и отвечают на вопросы по теме. Причём вот это именно чистая статистика, он запомнил что на слова "дайте определние тока" нужно сказать "направленное движение заряженных частиц". Но мы никогда не скажем, что он понимает и не доверим такому человеку работы, требующей понимания.
> В школе детям объясняют тему на физикеПо-моему все знание в голове хорошо описывается графом. В рассматриваемом примере на самом деле все не совсем так. Когда у ученика спрашивают: "Что такое ток?". 0н может не только дать определение тока, но и пройти по этой сети связей на любую глубину (ток-тепло, ток-закон Ампера, ток-напряжение, ток-амперметр и.т.д.). А дальше работает чистая логика (если A связано с B, то C).
>>430355 (OP)>Основываясь на таком подходе к структуре человеческого знания, можно создать сервис, который бы представлял сеть знаний конкретного человека и давал возможность для добавления новых понятий и редактирования связей между ними.Ты говоришь о настоящем (обучать учеников, от простого к сложному, потом создавая контекст на основе обученных понятий, создавать устойчивое поведение) или о будущем (залезть в мозг и бродить по нему)? Скорее всего, первое? Тогда здесь был тред о бихевиоризме, программируемом обучении, но он тронул. А тема обширная и, наверное, интересная.
Тема действительно обширная. В нее входят и смысл, и понимание, и контекст, и обучение. Скорее все это можно назвать представлением знаний.
>>430621>Тогда здесь был тред о бихевиоризме, программируемом обучении, но он тронулНашёл в архиве: https://2ch.hk/sci/arch/2018-01-05/res/403016.htmlАлсо, архивач: http://arhivach.org/thread/241374/
>>430355 (OP)>Контекст – это совокупность связей между понятиями.Можешь привести понятный и короткий пример?Я тут в справке программы MyLifeOrganized нашёл главу про контексты:Понятие Контекстов.Многие из задач в Вашем списке могут быть завершены только при определенных Контекстах или ситуациях.Например выполнить задачу "купить CD диск" можно лишь в магазине музыки.Таким образом, Вы можете создать новый контекст "Музыкальный магазин"и назначить этот контекст для вышеупомянутой задачи.Затем на вкладке To-Do в фильтре Контексты Вы сможете выбрать Контекст "Музыкальный магазин"и увидите лишь задачи, связанные с этим контекстом.Также, Вы можете думать о Контекстах, как о категориях для задач.Каждый контекст может включать другие Контексты.Каждый контекст может быть открыт/закрыт в определенное время.Можно создавать, переименовывать, удалять и назначать параметры для Контекстов в диалоге Управления контекстами.Для открытия этого диалога, выберите в меню Сервис->Управление контекстами...Короче, тут контекст рассматривается как ситуация или категория для сформулированной и запланированной задачи "Купить CD диск".Но наилучшее описание понятия "контект" - я нашёл в Википедии, вместе с примером.В более широком значении контекст — среда, в которой существует объект (например, «в контексте эстетических представлений XIX века творчество Тёрнера было новаторским»).Т. е. среда эта - это сложное понятие, со своими взаимосвязями, формирующими некоторую структуру из них, но именуемая одной фразой - контекстом.Также как и "музыкальный магазин" из примера выше.Я вижу в википедии, в статье про контекст https://ru.wikipedia.org/wiki/Контекступоминания семантического поля понятий, и поскольку, по всей видимости, оно представляет из себя семантическую сеть:https://ru.wikipedia.org/wiki/Семантическая_сеть возможно даже являющаяся частью семантической паутины https://ru.wikipedia.org/wiki/Семантическая_паутинато да, это уже имеет взаимосвязи, и контекст в этом случае можно характеризовать этими взаимосвязями.Но сам по себе контекст - подразумевает статичную структуру взаимосвязей, именуемую одним конкретным значением, его характеризующим.Т. е. называть контекст взаимосвязями внутри него не очень правильно, потому что эти взаимосвязи могут быть там внутри - динамически изменяющимися.
>>430616> Ещё по поводу именно понимания, а не смысла.Смысл - использование слова, понимание - умение использовать. Я ж говорю, тут просто все.
>>430624Надо будет почитать чего там понаписали, но отмечу почему на мой взгляд оно не взлетело и не взлетит. (Взять идею о том чтобы давать по кусочку сахара за правильный ответ и перенести ее с обучения обезьяны на человека). Говоря образно это все равно что взять технику построения сарая и перенести ее на строительство небоскреба. Тут проблемы совершенно разных масштабов. В частности не помогает то что нет абсолютного body of knowledge для любой более-менее продвинутой области. Вот в совке была единая линия партии по поводу любого вопроса и в таком идеализированном мире с идеализированными людьми техника бы может быть заработала. Но где в итоге совочек оказался? В жопе. Еще, если имеется идеальная программа и нужен для нее идеальный исполнитель, то уже не зачем ебать мясо - для этого существуют компьютеры.
>>430626>Смысл - использование слова, понимание - умение использовать. Я ж говорю, тут просто все.>>430620>По-моему все знание в голове хорошо описывается графом.Вы не хотите понимать, то что я написал. Вы не хотит отказаться от контекста в вашей голове/мои слова не наводят достаточносильный сигнал, чтобы он "перебил" ваши контексты. Я вас веду к контраргументу против теста Тьюринга. Узнали его? Гуглите "китайская комната". Мне нравится утверждение "смысл это совокупность связей". Это модель с хорошей точностью, но ей есть куда расти. Ведь статистические связи между словами дают нам формальные правила вывода для построения ответов на вопросы из этих слов, без учта семантики. В контраргументе: мне дали как раз такие формальные правила для китайского языка и поговорить со мной зашли китайцы. Я действовал по правилам и нормально овтетил на их вопросы. Они подумали что я человек, а не ИИ. На деле я ни слова не понял, ИИ уровня современного бота прекрасно бы справился. Так с родным языком таже история. Пример со школой тут идеален. Ученик запомнил цитаты препода - это чисто статистическая связь, по прецеденту. А смысла он не знает, тот же вопрос в другой формулировке его повергает в ступор. Он не хочет напрягать мозги, т. е. не хочет расходовать ресурс на изменение/создание контекста в мозгу, это энергетически затратно с точки зрения химии, биологии вроде. Но отвечать чё-то надо чтобы 2 не поставили, и он действует проще запоминает стат. связь, безпонимания сути, смысла. Зубрить это называется.
>Можешь привести понятный и короткий пример?Попробую показать на простом примере.Текст:Arkani-Hamed and Trnka discovered that the scattering amplitude equals the volume of a brand-new mathematical object — the amplituhedron. The details of a particular scattering process dictate the dimensionality and facets of the corresponding amplituhedron. The pieces of the positive Grassmannian that were being calculated with twistor diagrams and then added together by hand were building blocks that fit together inside this jewel, just as triangles fit together to form a polygon.Связи между понятиями:- Arkani-Hamed, Trnka, scattering amplitude, amplituhedron- scattering process, amplituhedron- positive Grassmannian, twistor diagramsВам текст понятен? Мне нет. Почему? Потому что нужно еще много связей между понятиями, чтобы вникнуть в контекст.
>>430635>нужно еще много связей между понятиями, чтобы вникнуть в контекст.Каких связей то ? Статистических ? Таких в самом тексте немало. Я могу отвечать на вопросы типа:1) чему равен scattering amplitude?(volume of amplituhedron)2) Кто открыл brand-new mathematical object — the amplituhedron?(Arkani-Hamed and Trnka)3) Кто такие Arkani-Hamed and Trnka ?(Открыли равнство..., изучали scattering amplitude).Таких вопросов можно составить по такому короткому тексту достаточно много. Я, конечно, ничего не понял и утрировал, но если паработать с отрывком можно выделить очень точные пары вопрос-ответ. Зная их наизусть, я могу обмануть нарочно/невольно человека, который будет проверять мои знания по данному вопросу. И самая мякотка - я могу обмануть себя и уверовать, что понимаю о чём тут речь. От смены языка отрывка ничего не изменится.https://ru.wikipedia.org/wiki/%D0%9A%D0%B8%D1%82%D0%B0%D0%B9%D1%81%D0%BA%D0%B0%D1%8F_%D0%BA%D0%BE%D0%BC%D0%BD%D0%B0%D1%82%D0%B0
>>430627Ну почему, там писали что оно немного даже взлетело в изучении языков тех же, для исправления аутистов разных. Ещё какие-то приложения были. И закончили тем, что неплохо было бы попытаться сделать учебник по логике, например.
>Каких связей то ? Статистических ? Таких в самом тексте немало.Совершенно соласен для сложного текста связей дествительно получается очень много, но в этом то его сложность и состоит. Количество связей как некая метрика определяет сложность текста.>И самая мякотка - я могу обмануть себя и уверовать, что понимаю о чём тут речь.Я думаю, что если связей бкдет достаточно много вы действительно начнете понимать о чем речь. Просто понимание берется не из воздуха, а через присоединение новых связей к старым, чем больше вы уже знаете тем меньше новых связей будет для вас в тексте. Это неплохая задача для ИИ автоматически выделять связи и строить сети из связанных между собою понятий. Так он сможет с нуля обучиться делать выводы в сложных предметных областях, с учетом того, что отдельные предложения он может распознавать и понимать.
>>430630Китайская комната, как и прочий гон против теста Тьюринга не выдерживает никакой критики. Если есть алгоритм формального вывода из текста, т.е. правила применения любых слов и словосочетаний в этом тексте, неважно на каком он языке, хоть на китайском, хоть на хаскеле, то это полностью равнообъемно "пониманию" этого языка (семантика = использование, умеешь пользоваться = понимаешь). Если ты знаешь значение (применение) иероглифов, то ты знаешь и китайский, так же как знаешь русский, если умеешь применять слова и словосочетания на нем. Проблема снимается номинальной дефиницией (применительно к этой теме - одинаковые применения разных слов из разных языков обозначают одно и то же, т.е. если ты формально можешь показать, что "сунь хуй чай" на китайском возможно применить точно так же и там же, где "я помню чудное мгновенье" на русском, то значит эти словосочетания обозначают одно и то же). Спекулировать тут можно только на теме что есть "я". Можно сказать, что у человека есть неведомая хуйня "квалиа", а у алгоритма нету. Тьюринг как раз потому и молодец, что не лез в эту мистику.
А из чего состоят понятия? Что если большинство понятий в тексте не ясно? Говорят, что ещё есть какие-то представления до понятий. О закорючках, способность распознавать закорючки разные...
Понятия состоят из связей с другими понятиями. И сами по себе смысловой ценности не представляют. Тут как в математике, где свойства математического объекта задаются совокупностью его отношений с другими объектами, а сам математический объект безликий элемент множства
>>430646>Я думаю, что если связей бкдет достаточно много вы действительно начнете понимать о чем речь.Китайская комната говорит об обратном.>>430648>Китайская комната, как и прочий гон против теста Тьюринга не выдерживает никакой критики.У неё нет адекватной критики. Это вопрос открытый. Есть те кто считают что она норм аргумент(Я в их числе) и те кто считают по другому. >Спекулировать тут можно только на теме что есть "я". Можно сказать, что у человека есть неведомая хуйня "квалиа", а у алгоритма нету.Нет, тут и без этого не всё ясно.>Если есть алгоритм формального вывода из текста, т.е. правила применения любых слов и словосочетаний в этом тексте, неважно на каком он языке, хоть на китайском, хоть на хаскеле, то это полностью равнообъемно "пониманию" этого языка (семантика = использование, умеешь пользоваться = понимаешь).Вот тут хорошо бы ввести понятие языка. Язык же это и есть множество с какими-то операциями , удовлетворяющими аксиомам. Мы в голове не мыслим словами. Внутренние представление смысла в мозгу(далее ВПСМ) это точно сигналы, но какой язык они образуют ? Вот есть формальные языки, а есть разговорные. Мозг вроде оперирует и теми и теми. Что если ВПСМ это ещё какой-то язык, т. е. обладает какими-то ещё операциями/аксиомами, отсюда и его мощность как инструмента обработки данных.>если ты формально можешь показать, что "сунь хуй чай" на китайском возможно применить точно так же и там же, где "я помню чудное мгновенье" на русском, то значит эти словосочетания обозначают одно и то жеЭто хороший критерий, по жизни я примерно так и проверяю. Но вот тебе пример из моего личного опыта. 10 класс, алгебра, первый урок по логарифмам. На доске написано и объяснено понятие логарифма и как с ним работать в математике. Второе упражнение с примерами. Вычислить 5^log7 по основанию 5. Пять минут все тупят, хотя ответ следует именно из определения понятия логарифм. Символы распознаны и понятны, определние уже выучено, а вывод из него не идёт никак. Я наконец допираю, мне говорят объяснить классу почему будет 7 и у меня не оказывается инструмента кроме речи: я повторяю определние и добавляю типа "раз так то будет 7". Всё равно не все допирают. Не (всегда) даёт статистическая связь способности к логческому выводу. Поэтому я считаю верной китайскую комнату.
>>430658Можешь пояснить какой смысл ты вкладываешь в свою "веру в китайскую комнату"? Т.е. если прям завтра напишут программу или особые затейники соберут прям такую комнату и она будет вести себя как человек, то на самом деле она не будет обладать пониманием, потому что мы можем видеть как работают ее составные части и фелософам от этого некомфортно? Я правильно уловил суть этого софизма?
К вопросу о лингвистической относительности.Как считаете, что точнее явление отражает - сгущатель или накопитель?
>>430668>какой смысл ты вкладываешь в свою "веру в китайскую комнату"Я признаю, что китайская комната это спорный пример, но и тест Тьюринга и понимание смысла как связи между понятиями тоже спорные. Истину я не знаю, поэтому говорю что верю. Я признАю что не прав, если будет создан сильный ИИ, который реально будет понимать(опустим вопрос как мы это узнаем) и при этом работать по формальным правилам.>фелософам от этого некомфортно? Я правильно уловил суть этого софизмаВот тебе пример от которого здравомыслящему человеку должно стать не комфортно. Одноклеточное растение, обладает памятью(в днк), органами воприятия(светочувствительный элемент и др.), правилами вывода(закодированы в днк). Получает сигнал(освещённость, запас энергии), принимает решение стоит ли двигаться, как и в каком направлении. Всё это делается по формальным правилам, лежащим в днк, выработанным чисто статистически в процессе эволюции. Т. е. это тоже самое что правила вывода выработанные статистически по текстам из слов. Изменилась только природа сигнала(были слова стала химия). Если кто-то называет работу по формальным правилам пониманием, то выходит, что сильный ИИ эквивалентен одноклеточному растению, а оно, оказывается, понимает что такое пространство, движение, голод, как ему шевелиться. Это же бред. Я не вижу тут никакой философии я вижу что есть чёрный ящик - мозг и мы хотим понять как он работает. Предлагаем модель, а она имеет точность. И вопрос верная эта модель или аппроксимация, т. е. какова точность.
>>430671Лол столько раз написал о том как любит китайскую комнату, а на деле оказалось что вообще не понимает о чем говорит.
>>430673При чему тут вообще жирнота? Я нормально спросил тебя немного разъяснить твои аргументы, а в ответ только получил тык-мык. Мне на самом деле интересно что философы пытаются доказать своими софизмами о комнатах.
>>430671>Если кто-то называет работу по формальным правилам пониманием, то выходит, что сильный ИИ эквивалентен одноклеточному растениюИли сразу тогда уж рычагу. Разница только в масштабах системы. Тебе от этого не комфортно, но это еще не значит что это не верно.Эквивалентен 1) совпадает по одному критерию - да 2) совпадает по любому мыслимому критерию - нет (К теме о смысле слов)
>>430671Давай продолжим твой пример с одноклеточным. Вот эволюция идёт дальше и дальше, и на каком-то шаге получается человек. Одноклеточное по твоему неразумно и не понимает, человек разумен и понимает. Хотя появился в процессе конечных шагов эволюционного процесса, формализуемого алгоритмически. В чем тут существенная разница от формализуемого алгоритмически вывода из слов языка, который ты называешь китайской комнатой и которому отказываешь в признании того, что оно понимает?
>>430695>появился в процессе конечных шагов эволюционного процесса, формализуемого алгоритмическиЭволюция процесс вероятностный. Вероятностный процесс это уже не гарантия результата за конечное число шагов, т.е. не алгоритм.>В чем тут существенная разница от формализуемого алгоритмически вывода из слов языкаЕё может и нет на самом деле, но этого пока не известно т. к. мы не знаем достоверно как работает мозг. В одноклеточном всё понятно, кроме что конкретно что кодирует, а принцип ясен. В мозгу же может быть мощнее аппарат. Я писал:>>430658>Язык же это и есть множество с какими-то операциями , удовлетворяющими аксиомам. Мы в голове не мыслим словами. Внутренние представление смысла в мозгу(далее ВПСМ) это точно сигналы, но какой язык они образуют ? Вот есть формальные языки, а есть разговорные. Мозг вроде оперирует и теми и теми. Что если ВПСМ это ещё какой-то язык, т. е. обладает какими-то ещё операциями/аксиомами, отсюда и его мощность как инструмента обработки данных.Мозг возник в процессе эволюции, на основе статистики. Но на сколько далеко он зашёл ? И зачем, если клетка уже норм "понимает". Я не агностик, мозг можно формализовать, но не факт, что это будет тот аппарат который сейчас предлагают. Он может вообще не по классическому понятию алгоритма+многопоточность работает. Из-за примеров про школу(из жизни) я не могу поверить в представление смысла через стат. связи между понятиями. А китайская комната - просто самый известный пример на эту тему.
>>430698> Эволюция процесс вероятностный. Вероятностный процесс это уже не гарантия результата за конечное число шагов, т.е. не алгоритм.Процесс вероятностный, но результат определяется наилучшей приспособленностью и т.о выразим алгоритмически, те же генетические алгоритмы как раз такие. > Её может и нет на самом деле, но этого пока не известно т. к. мы не знаем достоверно как работает мозг. Вот. Это важно. Если что-то точно неизвестно, учитывать нужно только известное. Сейчас нет веских оснований считать, что алгоритм, способный пройти тест Тьюринга, кардинально отличается от человеческого понимания, потому что неизвестно что оно собой вообще представляет, в частности, есть ли в нем что-то несводимое к связям между словами. Условнорефлекторные связи, лежащие в основе в т.ч и мышления, ничем не лучше статистических и даже по своей сути есть то же самое - выявление закономерностей в употреблении определённых слов в определённой ситуации с целью получить определённый результат.
>>430699>Процесс вероятностный, но результат определяется наилучшей приспособленностью и т.о выразим алгоритмически, те же генетические алгоритмы как раз такие. У них ещё сходимость не доказана вроде. Т. е. для каждого генетическогоалгоритма либо нужно доказывать сходимость, либо он может зациклится до бесконечности. А может повезёт и он попадёт за адекватное время.Юнет веских оснований считать, что алгоритм, способный пройти тест Тьюринга, кардинально отличается от человеческого пониманияКитайская комната нормальное основание для этого. Мы строим модель мозга, как он работаетне знаем это нормально. Нет смысла уверовать в обе эти точки зрения. Просто нужно развивать модель "смысл есть связи междe понятиями" и смотреть что будет, а параллельно проверять и другие модели, что делают. Например, в Швейцарии вроде реверс инженерят мозг с точки зрения нейронной сети.
>>430698>А китайская комната - просто самый известный пример на эту темуЗачем ты снова и снова вытаскиваешь эту комнату, когда ты с ней так обосрался? Ты совсем ебанутый? Я просто охуеваю.
Ну все комната-пидора приложили, теперь хотелось бы обратиться к его оппоненту. Ты считаешь что можно просто очень много текста прогнать через простую программу, эта программа будет строить граф по принципу какое слово с каким употреблялось. И потом на этом графе мы запустим другую программу и она начнет выдавать осмысленные предложения?К сожалению так просто нихуя не выйдет. Именно так работают т.н. цепи Маркова и они подходят только для генерации забористого бреда. К тому же не понятно как задать вопрос такой программе.
>>430714> Ты считаешь что можно просто очень много текста прогнать через простую программу, эта программа будет строить граф по принципу какое слово с каким употреблялось. И потом на этом графе мы запустим другую программу и она начнет выдавать осмысленные предложения?Не совсем так, там несколько иначе работает. И эти алгоритмы (для определённости, пусть LSA, word2vec, text2vec) не заточены именно для генерации осмысленных предложений. Однако, нечто подобное там все же есть - linguistic regularity итд, позволяющее задавать алгоритму вопрос, на который он будет осмысленно отвечать. В простейшем случае это три слова, алгоритм подбирает четвёртое (н-р "если мужчина - король, то женщина - ?") и оно реально отвечает правильно, даже если натренировано на первом миллиардер слов из педивикии. Т.е алгоритм может выявлять весьма нетривиальные связи слов. > К сожалению так просто нихуя не выйдет. Именно так работают т.н. цепи Маркова и они подходят только для генерации забористого бреда. К тому же не понятно как задать вопрос такой программе.Про вопрос выше написал, с этим давно проблем нет, алгоритмы отвечают на вопросы. Цепи Маркова для анализа текста я никогда не применял и даже не припоминаю чтобы читал такое, есть гораздо более интересные подходы. Тут проблема скорее количественная, нужны модели натренированные на многогигабайтных корпусах текста, при этом с разумными требованиями к железу. Первый такой алгоритм появился в 2013 году, согласись, рановато предъявлять за отсутствие огромного прогресса. Но прорывные результаты уже есть, лингвистические регулярности, word mover distance итд. А так, тест toefl LSA проходил не хуже человека ещё в 90х. Так что да, я уверен, что в ближайшие лет 10 мы увидим много интересного.
>>430725>тест toefl LSA проходил не хуже человека ещё в 90х[[citation needed]]Подозреваю что только какую-нибудь простейшую секцию где нужно вычеркнуть одно слово или типа того.
>>430729https://ru.wikipedia.org/wiki/Word2vec>>430730https://link.springer.com/content/pdf/10.3758%2Fs13428-014-0529-0.pdf
История повторяется. В свое время много кукарекалось о природе нейронов в ЦНС, о их связях, синапсах итд, но до Розенблатта никому в голову не пришло взять и замутить на основе этих соображений модель нейросети. Так и здесь. Сколько всего написано про графы итд связей между словами, а до Миколова в 2013 году никому и в голову не пришло сделать рабочую модель, хотя идея-то на поверхности. В пейсбуке (где работает и Миколов) вообще за эту тему серьезно взялись, есть алгоритм fasttext, он может в более глубокий анализ слов, на уровне отдельных слогов, что позволяет работать со сложными языками. Все это, напомню, появилось в последние 3-4 года.
Вот статья интересная https://arxiv.org/pdf/1607.04606.pdf там как раз описана формализация контекстов итд о чем ИТТ говорилось с гуманитарных позиций, описан алгоритм SISG (Subword Information SkipGram).
А если в такую систему я введу вопрос> У Саши было три яблока. Он отдал Маше два. Сколько яблок у него осталось?Она ответит мне? У так понимаю что нет. Просто потому что такой задачи даже не стоит. Но какую задачу они хотят я решить чтото я слабо улавливаю.Может быть из разряда давать советы типа> вы купили утюг, может вы хотите еще купить гладильную доску?Но на мой взгляд это вообще ниочем.
>>430741Пыталась вчера у Алисы что-то по-спрашивать, но даже не нашла как её скачать и забила, но насколько помню она ну очень односложная, но логарифмы вроде вычисляет если прямо спросить, а какой она скрипт или систему использует?
>>430741>А если в такую систему я введу вопрос> У Саши было три яблока. Он отдал Маше два. Сколько яблок у него осталось?>Она ответит мне? У так понимаю что нет.Неправильно понимаешь. Тут главная проблема - как системе вообще задать такой вопрос. Про linguistic regularity я уже писал, там в основе довольно простые алгебраические действия с векторными представлениями слов и довольно очевидные соображения, из которых следует постановка задачи, а возможности это дает немалые. И работает этот метод не только на скипграм-модели. Я думал над этим, даже примерно представляю как на основе этого реализовать логический вывод в натуральной дедукции Генцена-Правитца, А это только один из методов взаимодействия с подобными моделями, и наверняка не самый интересный.
>>430749>Неправильно понимаешь.Вот тут было больно.Какой вообще профит можно извлечь из этой хуитки ты можешь нормально объяснить?>и довольно очевидные соображения, из которых следует постановка задачиНе понял вообще этот пассаж; сначала задачу ставят, а уж потом соображают обычно.
>>430752>Какой вообще профит можно извлечь из этой хуитки ты можешь нормально объяснить?Так весь тред этот вопросик обкашливаем. Профит - алгоритм, который может в понимание текста (его осмысленное использование). Чем ближе подходим к такой возможности, тем больше получаемое напоминает работу ЦНС - рефлексы и их связи. В итоге получится полноценный сильный ИИ и верунцы в китайские комнаты официально пойдут на свалку истории, т.к. в противном случае им придется признать, что человек - такая же китайская комната.
>>430754А я все упорно пытаюсь добиться от тебя ответа как твои>LSA, word2vec, text2vec(кроме того что являют собой забавные образцы применения линейной алгебры) приближают нас к >Профит - алгоритм, который может в понимание текста (его осмысленное использование)? Сами они этим алгоритмом не являются, хотя бы на этом согласимся?
>>430732>solved 45 correctly (56.25 %).>тест toefl LSA проходил не хуже человека ещё в 90хДвачер изнасиловал ученого.
>>430758>Сами они этим алгоритмом не являются, хотя бы на этом согласимся?Они строят векторные представления слов, фраз итд. Естественно, что они являются только основой такого алгоритма, а не его окончательной реализацией, это абсолютно ясно. По-сути, лингвистические регулярности, word's mover distаnce итд это первые примеры использования таких моделей для чего-то большего, но даже они ясно показывают огромные возможности. >>430759Это нормальный показатель.
>>430754Этот пост состоит из очень резких утверждений на самом деле. Может быть так, что веруны в тест Тьюринга окажутся не правы.>>430758Этот тралит или тупит, т. к. ведёт всё к той же китайской комнате.>>430751Вот давайте, разберём этот пример. Я далёк от темы треда. Что почитать чтобы въехать в то как научить такую сеть вычислять логарифм. Это просто касается моего примера>>430658>10 класс, алгебра, первый урок по логарифмам. На доске написано и объяснено понятие логарифма и как с ним работать в математике. Второе упражнение с примерами. Вычислить 5^log7 по основанию 5. Пять минут все тупят, хотя ответ следует именно из определения понятия логарифм. Символы распознаны и понятны, определние уже выучено, а вывод из него не идёт никак. Я наконец допираю, мне говорят объяснить классу почему будет 7 и у меня не оказывается инструмента кроме речи: я повторяю определние и добавляю типа "раз так то будет 7". Всё равно не все допирают.Да, я верю в китайскую комнату, вернее не верю в работоспособность теста Тьюринга. Мне было бы очень интересно вникнуть в тему глубже, посмотреть самому до чего дошли современные алгоритмы. Именно понять их, а не попользоваться.
>>430760>Это нормальный показательКороче или ты приводишь прямую цитату из пейпера подтверждающую>тест toefl LSA проходил не хуже человека ещё в 90хили признаешь что запизделся или просто идешь нахуй>>430763>Этот тралит или тупит, т. к. ведёт всё к той же китайской комнате.Под кроватью у себя тралей поищи, пидор тупой. Могу по хардкору пояснить за твой пример.
>>430763Программа вычисления логарифма на самом деле очень несложная на высокоуровневом языке это вообще одна строка то есть система просто считывает переменные, пропускает их через эту прогу и выдает результат как обычный калькулятор, гораздо сложнее даже 2д графики рисовать. С пониманием другая тема, я лично склоняюсь больше к китайскокомнатной интерпретации, но её потолок можно перекрыть настолько что она может стать цифровым аналогом речевого центра мозга с захватом большого спектра задач, центр если можно сказать понимания это вообще не то, до этого пока ещё далеко, если речевой центр это комната допустим то понимание это подвал дома скорее.
>>430765Надеюсь что тебе не нужно описания что такое логарифмы, а то снова напишешь что я траль. Ты пишешь>определние уже выученоЭто очевидно не так, ведь события происходят в рамках одного урока. Есть определение написанное на доске, но оно не в твоей голове, а думаешь ты не доской, а головой. Как известно мозг дохуя сложно устроен, есть там всякие уровни памяти например. В краткосрочной считается могут расположится только 5+-2 объекта, а в долгосрочную не просто так попасть. Я думаю что бывают и всякие средне-срочные уровни, но не важно.Если бы ты интересовался формализацией математики, то еще бы узнал что в т.н. называемых интуитивно понятных определениях есть дохуя всяких неявных недосказанностей.В общем тебе нужно на своем мясном компьютере выстроить целый аппарат под решение этой задачи. И у тебе вызывает недоумение что это происходит не мгновенно? Ответ - ну бля даже не знаю потому что процессы в организме имеют конечную скорость например.
>>430767>Программа вычисления логарифма на самом деле очень несложная на высокоуровневом языке это вообще одна строкаЯ имел ввиду, вот мы делаем ИИ, который будет с нами разговаривать на человеческом языке, как Siri и т.п. Здесь >>430749 ты пишешь, что главная проблема это как правильно задать системе вопрос. Допустим её мы решили, а что ИИ дальше делает ? Просто дёргает функцию вычисления логарифма из api калькулятора ? ИИ же может понять что 10^logX=X, это же без вычислений делается, именно из определния логарифма следует.
>>430772Это другой анон, проблема в том как AI понять что именно ты её спрашиваешь, один и тот же вопрос можно задать очень по-разному, а множества вопросов ещё больше, ну сейчас можно определялять область вопроса не любого вопроса, но не дать конкретный ответ на любой вопрос. И здесь можно подстроить чтобы АI задавала наводящие вопросы и далее его прорабатывала.>ИИ же может понять что 10^logX=XНет, понять тебя она не может, до этого очень далёко, ответ дать может, здесь ей как раз проще вычислить чем отдельную программу под частные случаи строить.
Хотя может и не проще, это надобно в алгоритм смотреть - бывает проще считать целиком, а бывает проще подо что-то отдельные сегменты..
>>430772> Здесь >>430749 ты пишешь, что главная проблема это как правильно задать системе вопрос. Допустим её мы решили, а что ИИ дальше делает ? Просто дёргает функцию вычисления логарифма из api калькулятора ? Нет. Выводит ответ из понимания связей между словами вопроса. > ИИ же может понять что 10^logX=X, это же без вычислений делается, именно из определния логарифма следует.Может. >>430780> Это другой анон, проблема в том как AI понять что именно ты её спрашиваешь, один и тот же вопрос можно задать очень по-разному, а множества вопросов ещё больше, Word's mover distance, есть такая метрика сходства между словами, словосочетаниями.> Нет, понять тебя она не может, до этого очень далёко, ответ дать может, здесь ей как раз проще вычислить чем отдельную программу под частные случаи строить.Я ж привёл выше пример, как лингвистические регулярности обобщаются до любого логического вывода в натуральной дедукции. А это очень простой пример того, как подобная система может отвечать на вопросы.
>>430791>Нет. Выводит ответ из понимания связей между словами вопроса. Это уже интересно. Вижу как бы 2 степени понимания для задачи 10^logX=X. Можно действоват как в матлогике: иметь правило если здесь число совпадает с основанием лоарифма, то ответ такой-то. А можно именно соображать на месте руководствуясь определением логарифма. Оба вывода очень легко формализуются в виде синтаксических правил. Но от человека требуется второе, чтобы окружющие признали его понимание. Если он скажет первое на экзамаене, его заругают, хотя будет ясно что посчитать он может. Что говорят об этом современные модели типа натуральной дедукции и т.п. ? Как правильно называть отрасль, а которую ты поясняешь, которая объединяетвот эти все модели ?
>>430798> Можно действоват как в матлогике: иметь правило если здесь число совпадает с основанием лоарифма, то ответ такой-то. А можно именно соображать на месте руководствуясь определением логарифма. Это одно и то же. Определение логарифма даёт тебе общее правило его получения для любых возможных значений. Лингвистическая регулярность точно так же позволяет выводить общее правило из связей между словами, в общем случае любыми, будь то естественный язык, математическая нотация, ассемблер, неважно. > Как правильно называть отрасль, а которую ты поясняешь, которая объединяетвот эти все модели ?NLP, natural language processing.
>>430801>Это одно и то же. С функциональной точки зрения да, спору нет. Но на практике, человек выполняющий работу по первому правилу не будет считаться понимающим, что он делает. Оплата труда разным профессиям основана на этом. Преподы в универе просят именно объяснить что/как работает для проверки знаний учащихся, даже если они решают задачи на отлично. И не всегда им удаётся ответить преподу на 5. Т. е. на практике для человека это не называется пониманием. Почему так ?
>>430804>человек выполняющий работу по первому правилу не будет считаться понимающим, что он делаетИ тут опять встает вопрос, что есть понимание. Либо это что-то мистическое и оторванное от объекта понимания, либо понимание чего-то есть умение это что-то применять. Мне не известны варианты объяснения, не сводящиеся к этим двум. Та же китайская комната предполагает первый вариант (мистическую природу "понимания").
>>430791>А это очень простой пример того, как подобная система может отвечать на вопросы.Отвечать на вопросы понятно, само понимание по прежнему не так достоверно, но понимание в этом случае не дискретное свойство либо есть либо нет, то есть можно конечно говорить о понимании некоторого уровня.>>430805Слишком категорично, китайскокомнатная интерпретация только говорит скорее что понимание это нечто большее чем понимание чего-то конкретного, в некоторых случаях разница настолько велика что даже понимание множества конкретностей чем например можно условно назвать записи в книгах лежащих на полках не является по сути пониманием, даже если к этому пристроить тележку которая будет по запросу привозить тебе нужную книгу.
>>430805>Мне не известны варианты объяснения, не сводящиеся к этим двум.Ок, больше не буду вскрывать эту тему.>>430806>китайскокомнатная интерпретация только говорит скорее что понимание это нечто большееОна на самом деле ничего не говорит о природе понимания, только опровергает(пытается) тест Тьюринга. Это контраргумент же.>>430805>Либо это что-то мистическоеНу, так резко тоже не надо. То, что мы не знаем это ещё не мистика. Практическое отношение к пониманию, как в моём примере про логарифм на экзамене, тоже возникло статистически, аппроксимирует работу мозга, является моделью. Может эта модель лучше. Оба способа посчитать логирифм выражаются синтаксически. Ну я и спросил, может в рамках NLP уже есть какая-то возможность добавить ещё правил, так чтобы 1 объяснение логарфма отпало, а именно второе стало считаться пониманием ? На мой взгляд, это уже был бы шаг вперёд, по крайней мере, стоит поработать в этом направлении.
Понимание сводится к наличию смысла.. Если смысл вычислим на основании имеющихся связей, то понимание — это просто процесс вычисления. Если связи между словами непонятны, то происходит остановка вычисления.
>>430808>Она на самом деле ничего не говорит о природе понимания, только опровергает(пытается) тест Тьюринга.О природе не говорит, но вывод имхо следует что понимание скорее обобщённое свойство, то есть даже если тележка по запросу будет писать тебе новую книгу или статью, то она только использует заложенное понимание, как использует твоё понимание "какая книга тебе нужна" тележка которая её просто привозит, конечно и люди таким же образом действуют как говорилось выше о школьниках выдающих шаблон по запросу, но у школьника всё-таки есть больше возможности вникнуть в очень разносторонние области, у машины же уровень вникания практически отсутствует.
>>430810>Понимание сводится к наличию смысла..А что такое смысл? Я выше привел определение - смысл чего-то это применение этого чего-то. Конкретных примеров, опровергающих такое определение, я не знаю. >>430806>Отвечать на вопросы понятно, само понимание по прежнему не так достоверно, но понимание в этом случае не дискретное свойство либо есть либо нет, то есть можно конечно говорить о понимании некоторого уровня.Опять же, что такое понимание? Я исхожу из того, что понимание - это умение применять. Лично мне неизвестны соображения, исходя из которых это определение неполное или даже неправильное. Оговорюсь, что я исхожу из того, что точно известно в наше время.>>430808>Она на самом деле ничего не говорит о природе понимания, только опровергает(пытается) тест Тьюринга. Это контраргумент же.Вот как раз контраргумента я в китайской комнате и не вижу. Это пример уровня "ваше понимание - не понимание", а почему это так, толком не объясняется. >>430812> как говорилось выше о школьниках выдающих шаблон по запросу, но у школьника всё-таки есть больше возможности вникнуть в очень разносторонние области, у машины же уровень вникания практически отсутствует.Что есть "вникание"? Опять же речь о связях между словами, в более общем смысле - между объектами разных модальностей (текст, звук, изображение, видео итд). Алгоритмам NLP доступен только текст, поэтому их возможности более ограничены, чем у человека, которому доступны все нормальные для человека сенсорные модальности.
>>430814>Вот как раз контраргумента я в китайской комнате и не вижу. Это пример уровня "ваше понимание - не понимание", а почему это так, толком не объясняется. Попробую объяснить. Вот есть комната, книга правил, человек и дырка в стене, через которую он и китаец передают бумагу с вопросами. Здесь, очевидно что единственное место где может быть "понимание" у такой системы это человек, т.к. остаются только стены, книга, дырка, бумага, которые даже не меняют состояния. Человек ответил на вопросы на китайском при помощи книги, и на взгляд китайца, понимает китайский язык и смысл слов. На деле же он китайского не знает, никто никогда не скажет что у него есть понимание китайского и китайских слов. По скольку у него нет понимания, а остальные части системы точно вообще им обладать не могут, значит и у всей системы его нет. Здесь понимание берётся чисто в бытовом смысле. Человек не может целенаправленно пользоваться китайским языком, даже с книгой, например, сам задать конкретный вопрос, разве что выбрать вопрос случайно по алгоритму из книги, а вот придумать самому и перевети на китайский - нет.
>>430814>...поэтому их возможности более ограничены, чем у человека, которому доступны все нормальные для человека сенсорные модальности.Да, вот в этом сложность, восприятие сформировало у человека большой аппарат объёмного внимания-вникания, когда ты функционируешь во множествах пространств с текущим временем и учишься выбирать оптимальные реакции, машина лишена всего этого, и с нуля это одним махом не смоделировать, но научились ведь очень мощное 3д рисовать, так и тут постепенное введение большей вложенности и объёмности даст свои плоды, но как основный профит тут скорее опыт работы со многими смысловыми уровнями, а не игрушка могущая "поболтать" как настоящий человек.
>Попробую объяснить. Вот есть комнатаЕсли говорить о понимании в контексте сознания, то сейчас популярна теория интегрированной информации Джулио Тоннони, согласно которой минимальным сознанием может обладать хоть фотодиод, потому что продуцирует информацию. Поэтому какая китайская комната в 2к18, если даже фотодиод способен что-то распознать и минимально понимает окружающую среду.https://en.wikipedia.org/wiki/Integrated_information_theory
>>430824Ща почитаю. Но помню точно, с информатики первого курса, чо любые объекты физического мира генерируют информациюо своём состоянии, т.к. информация это всеобщее свойство материи. Так что на первый взгляд фраза про диод совсем не понятно о чём.
>>430816На самом деле проблема с китайской комнатой сводится к вопросу, "возможно ли понимание текста без связи с тем, чему соответствуют элементы этого текста в реальной жизни?". Казалось бы, нет, т.к. в данном случае речь о "сломанном" треугольнике Фреге (я уже говорил, что китайская комната это проблема номинальной дефиниции и не более того). Но на самом деле это не так. Поясняю: У нас есть слова, словосочетания и правила вывода из них. Но они ни с чем не связаны, т.к. китайского мы не знаем. Но т.к. у нас есть формальная система, то мы можем перенумеровать все ее объекты с помощью геделевской нумерации https://ru.wikipedia.org/wiki/%D0%9D%D1%83%D0%BC%D0%B5%D1%80%D0%B0%D1%86%D0%B8%D1%8F_%D0%93%D1%91%D0%B4%D0%B5%D0%BB%D1%8F и затем, имея геделевские номера объектов формальной системы, попытаться "восстановить" треугольник Фреге. Тут уже возможны варианты. Можно годами медитировать над паттернами из этих номеров, сопоставляя их со знакомыми нам отношениями предметов и явлений, можно как-нибудь еще попытаться понять, что чему соответствует.
>>430826>На самом деле проблема с китайской комнатой сводится к вопросу, "возможно ли понимание текста без связи с тем, чему соответствуют элементы этого текста в реальной жизни?"Об этом писал Станислав Лем. Сепульки.https://ru.wikipedia.org/wiki/%D0%A1%D0%B5%D0%BF%D1%83%D0%BB%D1%8C%D0%BA%D0%B8
>>430828Ну да, как вариант. К слову, с математическим текстом ситуация намного лучше, т.к. любая математика представима в виде текста без отсылок к чему-то кроме другого текста. И тут геделевская нумерация полностью снимает проблему китайской комнаты, т.к. напрямую арифметизирует любую математическую теорию, неважно на китайском она, на узбекском или же это чисто формальные записи.
>>430831>К слову, с математическим текстом ситуация намного лучшеЗначит вопрос состоит в том, чем отличается математический текст от произвольного текста. Я думаю ничем.
>>430832Тут мнения расходятся. С одной стороны, есть теория 5 уровней языка пикрелейтед. С другой, есть семантика Монтегю и нечто подобное Ранта. Последние как раз хорошо соответствуют тому, с помощью чего в китайской комнате предполагается строить ответ человеку, не знающему китайского. Но как всегда, попытка практического воплощения идеи выявляет слабые стороны и фейлы. У Монтегю и Ранта они очевидны, тогда как у теории 5 уровней языка пикрелейтед таких проебов нет, более того, недостатки предыдущих упомянутых теорий как раз прямо следуют из этой - 5 уровень языка можно вывести из предыдущих вплоть до первого, а вот наоборот - почти нереально, хотя теоретически проблем нет.
>>430835В математике утверждения верефицируются с помощью пруверов. Можно ли сказать, что прувер понимает смысл математического утверждения? И можно ли построить такие пруверы для естественноо языка?
>>430836> В математике утверждения верефицируются с помощью пруверов. Можно ли сказать, что прувер понимает смысл математического утверждения? Те же автоматические тактики в Коке могут строить вывод, доказуемый в выбранной логической системе. Это не всегда просто и не во всех случаях возможно, но когда это работает, итог ничем не отличается от доказательства того же самого человеком на бумаге. Тут ещё можно вспомнить тезис Чёрча. > И можно ли построить такие пруверы для естественноо языка?Теоретически можно. Но сложно, если это не для конкретной предметной области, а в общем для языка. Помимо системы типов нужно учитывать все те же связи между словами.
Понимание (лат. Intellectus) — универсальная операция мышления, связанная с усвоением нового содержания, включением его в систему устоявшихся идей и представлений.
Нашел прувер для естественного языка.LangPro is an automated theorem prover for natural language (this https URL). Given a set of premises and a hypothesis, it is able to prove semantic relations between them.https://arxiv.org/abs/1708.09417
>>430826>Но т.к. у нас есть формальная система, то мы можем перенумеровать все ее объекты с помощью геделевской нумерацииСтоп, я перехожу по ссылке на вики и читаю определение нумерации Геделя. Это функция g, сопоставляющая каждому объекту некоторого формального языка её номер. Китайский язык это вовсе не формальный язык. Разговорные языки формальными не являются.>>430831>К слову, с математическим текстом ситуация намного лучшеЛогично, ведь это формальный язык, для него работает нумерция Геделя.>>430832>чем отличается математический текст от произвольного текстаТем что математический написан на формальном языке. А произвольный может быть на разговороном. Хороший вопрос - есть ли(могут ли быть) ещё типы языков.
>>430859> Китайский язык это вовсе не формальный язык. Разговорные языки формальными не являются.Это вопрос спорный. Есть мнение, что являются, Montague, "English as formal language", например, или целая книжка даже с кодом для прувера пикрелейтед. Или Но я уже писал, что недостаток этого мнения в том, что там все красиво только теоретически, стоит подумать над реализацией общего случая, чтобы понять, что объём работ неподьемный абсолютно, даже если всех индусов гугла запрячь.> Хороший вопрос - есть ли(могут ли быть) ещё типы языков.Да, опять же чуть выше писал про теорию 5 уровней языка.
>>430886>Montague, "English as formal language"Навскидку сказал бы, что он многое выкинул и расммотрел только то в английском языке, что попадает под формальный язык. Т. е. рассмотрел частные случаи, отсюда и проблемы с реализацией общего.>Это вопрос спорный.Некоторые говорят: "Вот я точно знаю, но доказать не могу, поому что теорема Геделя о неполноте, есть высказывания которые доказать нельзя". Но теорема Геделя относится к формальным языкам, а не разговорным, т. е. так доказывать нельзя. Если окажется что разговорные - тоже формальные, то где же в них недоказуемые аксиомы ?
К вопросу о "понимании" моделей типа word2vec. Модель через враппер для R строилась на корпусе текста, обрезок педивикии с первым миллиардом слов штоле (полные корпуса там больше 3гиг запакованные). Никаких предварительных данных об арифметике модели не предъявлялось, вопрос тоже от балды (лингвистические регулярности работают не так), но и в данном, очень ущербном, случае модель почти смогла ответить на вопрос "один плюс десять", это выражение в пространстве векторных представлений слов оказалось ближе всего к трем ответам (см. код), правильный ответ третий (одиннадцать). Еще раз скажу, модель не имеет доступ к калькулятору, не знает что такое арифметика, не знает, что такое один, плюс, десять, одиннадцать, но при этом правильный ответ в числе трех минимальных расстояний между векторными представлениями слов. Так что слава роботам, сдавайтесь, сраные людишки, ИИ может понимать прочитанное.word_analogy(file_name = "vec.bin",search_words = "one plus ten",num = 3)Word: one Position in vocabulary: 4Word: plus Position in vocabulary: 2082Word: ten Position in vocabulary: 971 word dist1 fifteen 0.5224869847297672 forty 0.5132576227188113 eleven 0.501988232135773
>>431087>one plus ten>fifteen>надо еще теробайтов текстов, вот тогда захватим мир!Пиздос ML-маньки погрузились в свой манямир и не хотят видеть ничего вокруг.
>>431087Очень круто на самом деле. А почему после такого большого текста поставили вопрос "посчитай сколько будет" ? Т. е. модель оперировала словами, которые уже встретила, значит числа из большоого кол-ва слов, для неё и не числа вовсе. Но ведь ичеловек, дети учатся счёту не на текстах, а на специальных данных(текст учебника). Может стоило и этой модели дать специализированный текст о числах и счёте, который даётся детям в учебниках. Смогла бы она тогда определить правила построения чисел из цифр и операций с ними ?
>>431098> Может стоило и этой модели дать специализированный текст о числах и счёте, который даётся детям в учебниках. Смогла бы она тогда определить правила построения чисел из цифр и операций с ними ?В том и суть, что лингвистические регулярности выявляют любую существующую в данном тексте связь между любыми элементами (токенами) текста любой тематики (токенизированного для удобства в подходящие элементы). Далее, такие элементы текста как 10, десять, ten, представление этого числа в LaTeX' е итд это одно и то же, а метрики типа relaxed word's mover distance итд позволяют модели выявлять связи например между термином и его определением другими словами. У меня есть даже некоторое количество кода, который все это может делать и общие схемы, как это должно работать на математических текстах. Есть так же мнение, что именно на математических текстах алгоритмы NLP должны работать лучше, чем на текстах натурального языка, т.к элементы формализованного математического текста связаны только с другими такими элементами, т.е для понимания математики достаточно самого текста, связей с чем-то во внешнем мире нет, либо она вторична относительно самого формализованного текста. Подобные идеи высказывались ещё Маннури, но в то время не было технических возможностей это реализовать. А теперь есть, я вообще уверен, что на этих принципах возможно создать полностью автоматизированный прувер, т.к все вышеизложенное элементарно стыкуется с теорией типов, например MLTT. Как раз такой прувер я пытаюсь вымутить. В качестве части ИИ такой прувер даст возможность ИИ полностью автономно заниматься математикой.
>>431097> Пиздос ML-маньки погрузились в свой манямир и не хотят видеть ничего вокруг.Манямир у тебя, у меня алгоритмы, код итд. Я к слову, уже нашёл, как автоматически выбирать правильный ответ, даже если он не 3ий, а 10й. Эксперименты показали, что тут возможны два случая обратной проверки правильности ответа в зависимости от результатов выдачи - простое симметрической отношение на множестве и нечетко-симметрическое в более запущенном случае, когда простой симметрии не получается.
Вот, только недавно тута пояснял, что проблема анализа текстов на естественном языке в том, что алгоритму доступен только текст, а человеку еще и внешний мир, описываемый этим текстом, и что учет мультимодального контента очень бы помог NLP, и вот, свежая работа Миколова ровно на эту тему https://research.fb.com/wp-content/uploads/2017/11/paper-1.pdf? (2 февраля). While the incipient internet was largely text-based, the modern digital world is becoming increasingly multi-modal. Here, we examine multi-modal classification where one modality is discrete, e.g. text, and the other is continuous, e.g. visual representations transferred from a convolutional neural network. In particular, we focus on scenarios where we have to be able to classify large quantities of data quickly. We investigate various methods for performing multi-modal fusion and analyze their trade-offs in terms of classification accuracy and computational efficiency. Our findings indicate that the inclusion of continuous information improves performance over text-only on a range of multi-modal classification tasks, even with simple fusion methods. In addition, we experiment with discretizing the continuous features in order to speed up and simplify the fusion process even further. Our results show that fusion with discretized features outperforms text-only classification, at a fraction of the computational cost of full multimodal fusion, with the additional benefit of improved interpretability.
>>431143>Манямир у тебя, у меня алгоритмы, код итд. Я к слову, уже нашёл, как автоматически выбирать правильный ответ, даже если он не 3ий, а 10й. Анон с харкача создал свой ИИ. Ученая общественность в шоке! Размер его манямира таков, что скоро он может засосать всю галактику.
>>431142Когда можно будет статьи по теории струн скармливать компьютеру и находить там ошибки, а еще лучше, чтобы он сам писал статьи?
>>431205Мы над этим работаем :3 Я спрашивал у Миколова за лингвистические регулярности для нужд математики, он сказал, что похуй на тему текстов (и не только текстов), оно работает для всего, для любых существующих отношений между элементами в анализируемом тексте, единственный подводный камень (особенность этих моделей векторного представления текста) - для более внятного результата нужно много специализированного текста.
>>431212Но в 99,99% это неюзабельный для автоматического анализа текст. Возьмем LaTeX/AMS-TeX. Нужны либо исходники, либо методы автоматического распознавания математической нотации из картинок и пдфок в текст, математический OCR. На эту тему есть хуй да нихуя - платная параша с распознаванием уровня 60% и гарвардский проект на основе нейросети, этот интереснее, но тоже точность так себе. Т.е. в самом лучшем случае там мягко говоря пиздец сколько ручной работы.
>>431163>алгоритму доступен только текст, а человеку еще и внешний мирДа это вроде на поверхности.Вот объясни. Запустим твои модели на большом кол-ве текста о двоичных числах, причём в тексте естьтольк довичные числа не более чем из 2 разрядов(от 0 до 3). Затем попробуем спросить сколько будет 3 + 1. Что ответит тfкая модель ? Мне видится что ничего хорошего, т.к. у неё нет слова для 5, а будут ли у неё правила построения двоичных чисел из цифр 0 и 1 это и есть мой вопрос. Далее усложним, пусть исходный текст это большой текст о линейной алгебреи и Евклидововй геометрии в 1D и на 2D. Сможет ли она понять сложение двух 3D векторов, если уже знает всё о 2D векторах ? Будем считать что прямого правила (x,y,0)=(x,y) в тексте не было.
>>431332> Да это вроде на поверхности.Да все что угодно вроде на поверхности. А как до дела доходит, почему-то выясняется, что никому не пришло в голову реализовать. А после того, как кто-то реализует, остальные говорят, что это очевидно и вообще на поверхности.> Вот объясни. Запустим твои модели на большом кол-ве текста о двоичных числах, причём в тексте естьтольк довичные числа не более чем из 2 разрядов(от 0 до 3). Затем попробуем спросить сколько будет 3 + 1. Что ответит тfкая модель ? Мне видится что ничего хорошего, т.к. у неё нет слова для 5, а будут ли у неё правила построения двоичных чисел из цифр 0 и 1 это и есть мой вопрос.А ты себя поставь в такие условия и подумай. На самом деле тут дело в чем - язык (любой, в т.ч формальный математический) это деятельность человека, в т.ч служащая для описания другой деятельности, окружающей действительности итд. Именно из этих побуждений человек научился оперировать с числами, которые превосходят число его пальцев. Можно ли заставить алгоритм что-то делать? Можно, просто нужно придумать задачу, которая это сделает. Я ж говорю, проблема больше не в самих алгоритмах, а в умении с ними взаимодействовать. Это касается вопросов и чего угодно другого. > пусть исходный текст это большой текст о линейной алгебреи и Евклидововй геометрии в 1D и на 2D. Сможет ли она понять сложение двух 3D векторов, если уже знает всё о 2D векторах ? Будем считать что прямого правила (x,y,0)=(x,y) в тексте не было.Тут даже проще, это просто обобщение на большее число размерностей. Опять же, главное правильное взаимодействие с алгоритмом. Те же модели векторно-пространственного представления текста существуют десятки лет. А взаимодействие с ними по типу лингвистических регулярностей придумал Миколов в 2013. И опять же, все на поверхности, идея-то очевиднее некуда. Как говорится, "средств у нас хватает, у нас ума не хватает".
>>431336Ты тут сыпешь терминами и фамилиями, которые никто не знает. Я просто хотел задать пару конкретых вопросов, чтобы было что обсудить, чтобы тред держался.
>>431339> Я просто хотел задать пару конкретых вопросов, чтобы было что обсудить, чтобы тред держался.Ну так я конкретно и отвечаю. Суть в том, каким образом взаимодействовать с такими моделями, могут они очень многое, в чем-то гораздо больше человека.
ML-блядок, мог ли ты приоткрыть свои свои достижения по>у меня алгоритмы, код итд. Я к слову, уже нашёл, как автоматически выбирать правильный ответхотябы чуть-чуть?
>>431339Откуда известно что они могут многое, если почти никто пока не придумал способ ставить им задачу, т. е. проверить что же они действительно могут ?
>>431350> Откуда известно что они могут многое, если почти никто пока не придумал способ ставить им задачу, т. е. проверить что же они действительно могут ?Эта уверенность основана на том, что модели векторных представлений текста моделируют язык почти во всей его сложности и полноте. Т.е со всеми возможными отношениями между всеми элементами любого языка в самом общем смысле языка ес-но. Проблема с подобными моделями до 2013 года была в том, что они не могли работать с большими объёмами текста. Упомянутые мной тут могут. Конкретно такие да, пока ещё малоизучены. Более того, их постоянно допиливают. Н-р SISG (subword information skipgram) может представлять язык даже на уровне отдельных слогов. В основном этими исследованиями занимаются в пейсбуке.
>>431349Кому надо, приоткрывал. Ты мне все равно ничем не поможешь, а куча разрозненного кода тебе ничего не даст. Как будут готовые решения, так все покажу.
>>431357>модели векторных представлений текста моделируют язык почти во всей его сложности и полнотеProofs?
>>431357>модели векторных представлений текста моделируют язык почти во всей его сложности и полнотеОчень сильно звучит. Имеешь ввиду это уже доказано математически ? Я думал что разговороный язык формализовать пока не удавалось, буду рад узнать что отстал от жизни. Или он формализован с некоторыми допущениями ? Тогда, даже в случае изобретения сильного ИИ, его противники прикопаются к этим допущениям.
>>431364> Я думал что разговороный язык формализовать пока не удавалось,Его и не надо формализовывать. Вот ты им пользуешься без формализации.
Как эта хуембала учитывает хотя бы то что у некоторых слов может быть несколько значений, т.е. это по сути два разных слова хотя они совпадают, типа "лук", "рак" и тп?
>>431370Без строгой формализации, нельзя строго вывести свойства и нельзя утверждать с какой точностью моделируется язык. Так будет много спекуляций со стороны противников ИИ.
>>431374> Как эта хуембала учитывает хотя бы то что у некоторых слов может быть несколько значений, т.е. это по сути два разных слова хотя они совпадают, типа "лук", "рак" и тп?Она это учитывает уже за счёт своей структуры. Достаточно посмотреть на схему, чтобы понять. >>431375> Без строгой формализации, нельзя строго вывести свойства и нельзя утверждать с какой точностью моделируется язык. Так будет много спекуляций со стороны противников ИИ.То же самое можно предъявить и естественному интеллекту. Формализации нет, но все человечество как-то пользуется. Насчёт нельзя вывести свойства - в корне не согласен. Векторное представление языка содержит все возможные свойства связей между любыми элементами. Тут вопрос больше в том, насколько конкретный корпус, на котором строилась модель, полон в этом смысле. Естественно, на дампе педивикии не построить полное представление языка. А вот если алгоритму будет доступен целый интернет, включая соцсети, то да, полученная модель будет весьма интересна, особенно мультимодальные варианты, учитывающие не только текст, но и фото, видео, звук итд. Но тут опять же встаёт вопрос методов работы с ней.
>>431406>То же самое можно предъявить и естественному интеллекту.Нет. Мы имеем субъективное ощущение понимания того о чём думаем/говорим. Здесь можно спекулировать только на тему "а что есть я", как ты верно подметил где-то в начале треда. А для моделей скажут где гарантия что они используют язык так как мы ? Тут нужен строгий критерий что есть "так как мы", для этого нужна строгая формализация языка, а её нет. Такому ИИ опять припомнят китайскую комнату, хотя она даже не об этом. Но я не об этом спросил в начале. Если нет строгой формализации, то откуда ты знаешь что:>модели векторных представлений текста моделируют язык почти во всей его сложности и полноте?Это из >>431357.
>>431436>А для моделей скажут где гарантия что они используют язык так как мы ? Тут нужен строгий критерий что есть "так как мы", для этого нужна строгая формализация языка, а её нет.Нет. Я уже писал, что понимание слова есть возможность использования этого слова, к этому приходили много раз и из самых разных соображений, Виттгенштейн тот же не единственный. Для модели гарантия того, что она использует язык так же как человек - тест Тьюринга. И вот тут мы подходим к китайской комнате, суть которой - формализация вывода в естественном и др. языке. Но у нас нет формального вывода, нет китайской комнаты. А что есть? А есть то же, что и у человека - семантика языка есть использование языка, понимание слова есть возможность его использования. Человек это может, word2vec это тоже может. И то и другое - без формализации.
>>431439Я вижу 3 градации "силы" ИИ:1) Доказать, что он может делать то же что и мы. Это требует формального представлянения вот этой работы.2) Доказать что он делает так же как мы. Это требует обхода китайской комнаты.3) Доказать что он осознаёт как мы, это требует разрешить вопос что есть Я.Для человека первые 2 вопроса не стоят. Если ты говоришь без пруфов>модели векторных представлений текста моделируют язык почти во всей его сложности и полнотеЭто претензия только лишь на 1 пункт. Мне видится логичным сначала понять что мы делаем( что есть разговорный язык), а потом уже строить модель решения этой задачи. Ну ты знаешь: хорошее ТЗ - половина успеха. Иначе выходит что NLP строит очень крутую модель но вовсе не для true ИИ, а для просто ИИ в смысле продвинутая система принятия решений. Я не читал работ по NLP и далёк от этого, но опять же те кто куда-то там пришёл, начинали с каких-то аксиом, а не факт что они были верные/полный набор.
>>431406>Она это учитывает уже за счёт своей структуры. Достаточно посмотреть на схему, чтобы понять.Мне это совсем не понятно. Там ведь нет слова "лук-1" и "лук-2", а есть только одно слово "лук" и ему приписывается некоторый вектор, т.е. из структуры модели следует что различий не делается.
>>431464>Там ведь нет слова "лук-1" и "лук-2", а есть только одно слово "лук" и ему приписывается некоторый вектор, т.е. из структуры модели следует что различий не делается.Ложь, пиздежь и провокация. Для модели скипграм (пик 1 справа) по формуле с пика 2 вычисляется контекст использования слова, под второй сигмой он подписан. Собственно, -c<j<c, j!=0. Суть этой записи в том, что j - это центральное слово контекста (собственно, искомое, н-р "лук"), а -с и +с - это количество слов контекста, в окружении которых оно употребляется (на рис 1 справа с = 2, но модель может строиться с любым размером контекста). Суть происходящего в том, что слово само по себе без контекста его употребления, не значит ничего. В твоем же примере, "лук" может значить как овощ, так оружие или прикид хипстера. Ты сам можешь понять смысл этого слова только в контексте его употребления (а таких контекстов конечное количество). Ровно то же самое делает скипграм, при построении модели определяется контекст употребления слова, их может быть конечное количество (т.е. слово "лук" не употребляется в значении полового органа итд). О луке можно говорить только в связи с каким-то контекстом, т.е. смысл этого слова определяется его употреблением. Это верно как для тебя, так и для скипграма. Ты не говоришь просто "лук", ты говоришь "лук чего-то там бла-бла", в противном случае ты и сам не поймешь о каком луке речь. В ситуации же когда речь о конкретном луке, твое понимание (использование) этого слова не отличается от такового у скипграма.
>>431472Получается что оно все контексты сваливает в один. На слово "лук" оно вывалит и про хипстеров и про овощи и про оружие. Но эта модель никогда не сможет выдать что у слова есть три разных значения и выдать их отдельно. Чтд. Я не понимаю с чем ту тут пытаешься спорить, может ты сам не понимаешь о чем вообще говоришь?
>>431484Я так и предполагал, что ты даже примерно не понимаешь что на пиках в предыдущем посте и как оно один контекст отличает от другого. Ок, понял, отстал.
>>431486Был у меня один знакомый, мразь еще та и просто невероятно тупой уебан. Делал диплом по рекомендательным системам. Совпадение? Не думаю.
>>431487Я в принципе мог бы рассказать про иерархический софтмакс и про то, что разные контексты употребления для одного слова - это разные ветви этого иерархического софтмакса, а в случае, когда слово в каком-то контексте не употребляется, то и вышеупомянутых ветвей для этого нет. И т.о. контексты употребления одного и того же слова - это абсолютно разные вещи для модели еще на этапе ее построения, но чувствую, что смысла нет. Я тебя услышал, есть мнение твое и неправильное, все пидарасы, ты дартаньян, так ведь? Вот и прикинь, много ли мне выгоды что-то доказывать в пустоту. Я просто пояснил про самое современное состояние исследований на тему треда, т.к. это местами касается одной из тем, которой я занимаюсь.
>>431488>Вот и прикинь, много ли мне выгоды что-то доказывать в пустоту.Не обращай внимания. Очень интересно тебя читать. Продолжай. Я вот не пониманию как модель word2vec сама выделяет контексты? Что для нее является контекстом? Статистическое распределение слов?
Если контексты определяются как близкие по расстоянию слова в тексте, то это как-то не то, что подразумевает под контекстом человек.>Контекст -(от лат. contextus - соединение - связь), относительно законченный отрывок письменной или устной речи (текста), в пределах которого наиболее точно выявляется значение отдельных входящих в него слов, выражений и т. п.
>>431494>Я вот не пониманию как модель word2vec сама выделяет контексты? Что для нее является контекстом? Статистическое распределение слов? Да, частота употребления данного слова в контексте (в окружении) других слов, формула >>431472 на втором пике. Если она нулевая, то данное слово в данном контексте не используется, т.е. значения не имеет. Причем, такие модели могут выделять значение словосочетаний, не сводящихся к значениям отдельных слов, н-р, контора "AIr Canada" это не то же самое, что слова воздух + страна Канада по отдельности. Ну и как я говорил, есть вариант, анализирующий значение слова на уровне отдельных слогов (SISG в пейсбуковском fasttext'е) https://fasttext.cc/ там возможностей еще больше, наверняка такие модели могут даже проследить происхождение слов в разных языках на исторических текстах выявить в разы больше, чем смог бы историк со специальным образованием. Я говорил, что наибольшая проблема - это взаимодействие с такими моделями, но тут все не так сложно как кажется, т.к. речь о векторных пространствах, то все взаимодействия с моделью можно свести к линейной алгебре, те же лингвистические регулярности - это всего лишь сложение и вычитание векторов.
>>431496То, что у тебя на пике, полностью соответствует тому описанию, что ты скопипастил.>>431496>Если контексты определяются как близкие по расстоянию слова в тексте, то это как-то не то, что подразумевает под контекстом человек.Контекст - это окружение слова, а не близкие по значению слова. Близкие по значению слова встречаются в похожих контекстах.
Еще один пример - фразы, смысл которых один, но при этом в этих фразах все слова разные. Пример пикрелейтед, фразы "Obama speaks to the media in Illinois" и "The President greets the press in Chicago" значат примерно одно и то же (пример из 2015 года, у них тогда еще Обамка был), при этом в них нет ни одного одинакового слова (кроме всяких "the" итд, которые смысловой нагрузки не несут). Так вот, обсуждаемые модели векторного представления слов могут выявлять схожесть фраз даже в таком случае (чистая статистика использования слова в окружении других тут не работает), для этого есть метрики типа Word Mover’s Distance. Это к тому, если кто-то скажет, что простая статистика не отражает всех нюансов языка. Отражает, просто надо уметь этим пользоваться, это опять же пример правильного взаимодействия с моделью.
>>431500Если word2vec настолько хорошо понимает тексты и все просто настолько охуенно, то какие проблемы актуальны в этой области? Просто данных для обучения набрать большое количество и все. И машина сама будет определять контексты, понимать смыслы и делать выводы?
>>431488>Я в принципе мог бы рассказать про иерархический софтмакс и проКазалось бы можно с этого и начинать, но зачем? Ведь можно просто написать>Достаточно посмотреть на схему, чтобы понять....Т.е. я могу ввести в эту систему слово "лук" и получить от нее ответ типа "у этого слова 3 занчения: 1).. 2).. 3).."?
>>431503>Т.е. я могу ввести в эту систему слово "лук" и получить от нее ответ типа "у этого слова 3 занчения: 1).. 2).. 3).."?Если придумаешь, как это сделать - запросто. Там учитываются не только значения, но и многое другое.>>431502Проблемы в том как это все использовать. Построить модель любого размера и сложности - вообще не вопрос, на чуть более чем среднестатистической пекарне можно до 100млрд слов в сутки так обрабатывать, а если есть работающий в режиме 24/7/365 кластер с гигабитными каналами, парой сотен процессоров, терабайтом оперативы и петабайтами дискового пространства (что для Цукерберга копейки), можно вообще весь интернет использовать как источник для модели. Больше того, оно может учитывать и картинки и видео и музыку итд (правда, это только с недавнего времени), т.е. потенциально может понимать и разговорную речь, например. Опять же, вопрос только в том, как это сделать.
>>431509А ты думал в сказку попал? Даже простые вещи, которые вроде как на поверхности, никто и не пробовал реализоввать. Те же лингвистические регулярности по-идее должны работать для любых векторно-пространственных моделей, но для LSA их никто и никогда не делал кроме меня сегодня, лол. Спрашивал у автора либы LSAfun для R, он говорит "хз, вообще должно работать", попробовал - плохо ,но работает:setwd("c:/rtest")library(LSAfun)load("EN_100k_lsa.rda")b <- EN_100k_lsa["queen",] - EN_100k_lsa["woman",] + EN_100k_lsa["man",]neighbors(b,10,tvectors=EN_100k_lsa) queen king majesty coronation prince windsor knight buckingham knighthood honour 0.7311476 0.6980534 0.6873810 0.6425978 0.6414044 0.6335442 0.6256096 0.6156674 0.6152032 0.6122742 Но там векторное представление всего 100к слов. Сам этот метод, LSA, создан еще в 90-е, если что. Лингвистические регулярности - в 2013. А попробовать второе для первого вообще никто и никогда не удосужился.
>>431514Как весь этот бред вообще связан с тем что я спросил?Хуй знает как там у ML-блядка обстоят дела с искусственным интеллектом, но мне одному itt кажется, что с естественным у него серьезные проблемы?
>>431516Напрямую связан. Бери да делай, никто не запрещает. Я по ИИ не угараю, у меня другой интерес к этим алгоритмам, если бы я ИИ занимался, думал бы в сторону того, как к word2vec прикрутить openai gym/universe.
"Случайно" нашел статью где делают прям то что я хочу.http://proceedings.mlr.press/v51/bartunov16.pdfМожет кому-нибудь будет интересно, там есть отсылки и к другим методам.Хотя на самом деле их результаты как то не очень меня впечатляют.
>>431531Ебать что за хуйня у нее происходит с кожей по ходу презентации? Ей там укол эпинефрина не понадобился?
Что влияет на качество работы модели word2vec? Влияет ли качество текста на, которой модель обучается на результат? То есть как у человека берешь хороший текст все понятно, плохой текст ничего не понятно?
>>431518Тоже не понимаю этого AI, давно бы уже сделали глобальную пересечённую динамическую базу на основе распределённых вычислений типа молекулярного облака взаимосвязей там, или вращающейся галактики представлений, тогда оно может что-нибудь и выдало, а пока это всё узкозадачная волынка без души.
Взять этот word2vec - какая-то стандартная статистическая функция, никакой динамики, или NLP - вообще какая-то каша на столике у годовалого ребёнка, мда уж.
>>431664Победа в тексте показывает, что нейронные сети в понимании сознания, но это алгебраическая структура.
>>431679Ты что, не веришь, что она всё понимает?Нейросети всё понимают! Только сказать не могут ничего. Разговаривайте с ними, пойте им, ложитесь с ними спать.
Да я даже сказал бы больше, интеллект намного умнее человека способен стать, в построении фраз по усреднённым значениям и тому подобного, но в остальном обычный интеллект, как у ребёнка.
>>431700>Ravn ACE читает и на основе машинного обучения обрабатывает до 600 000 документов в день.А у меня cron скрипт 5 гигов логов обрабатывает в день, выходит у меня охуенная AI система? Когда там гуглопереводчик научится зáмок от замкá отличать?
>>431704https://translate.google.com/#ru/en/%D0%B7%D0%B0%D0%BC%D0%BE%D0%BA%20%D0%BD%D0%B0%20%D0%B4%D0%B2%D0%B5%D1%80%D0%B8%0A%D0%BC%D0%BD%D0%BE%D0%B3%D0%BE%D1%8D%D1%82%D0%B0%D0%B6%D0%BD%D1%8B%D0%B9%20%D0%B7%D0%B0%D0%BC%D0%BE%D0%BA
>>431704>А у меня cron скрипт 5 гигов логов обрабатывает в день, выходит у меня охуенная AI система?AI система - это не просто алгоритм обработки, она должна обладать когнитивными способностями,например распознаванием образов, всяких букв, каптчи и прочее - при помощи например, машинного зрения.А дальше уже, понятное дело, включается что-то типа алгоритмики психики, при самой обработке данных...Да, это может делать и макрос, но сперва важно правильно распознать входные данные, организовать их и подать на вход алгоритма обработки.
>>431707Ну я попросил гугл мне перевести "дерево - необычный материал для изготовления замка". Он мне говорит "wood - an unusual material for the manufacture of the castle". Я-то думал там сидит суперумный ИИ который всё понимает, а там простой болванчик, который подставляет слова исходя из статистических закономерностей? Как же так, как жить дальше?
>>431709Думаю эту фразу даже если бы человек прочитал не понял какой замок имеется ввиду, без ударения не понять, но AI может переспросить или уточнить как и люди если им непонятно, он же не должен мысли читать, пока...
>>431726>если бы человек прочитал не понял какой замок имеется ввидуЕсли он дурачок и не понимает, из каких материалов строятся замки, а из каких изготовляются замки, то конечно.
>>431709>Ну я попросил гугл мне перевести "дерево - необычный материал для изготовления замка".>Он мне говорит "wood - an unusual material for the manufacture of the castle".И чё? Пикрелейтед.>Я-то думал там сидит суперумный ИИ который всё понимает,>а там простой болванчик, который подставляет слова исходя из статистических закономерностей?>Как же так, как жить дальше?Там алгоритм обработки инфы.>>431726Двачую. Но можно было бы до однозначной алгоритмической обработки гугл переводчиком,всё-же дать возможность пользователю - задать эти ударения если не отдельным спецсимволом,то например, при помощи клика мышью по гласным буквам,или выбирая корректную и доступную к переводу семантическую единицу - из выпадающего списка.Причём не для фразы, а для каждого отдельного слова - также, как и в случае с переводом одного слова: https://translate.google.com/#ru/en/%D0%B7%D0%B0%D0%BC%D0%BE%D0%BAЕсли кликнуть на слово Castle здесь - можно увидеть два варианта перевода,но кликая на слово "замок" нельзя выбрать корректный вариант.Поэтому, можно было бы при вводе, каждое отдельное слово избирать,в виде варианта с корректным ударением и переводом,а далее уже применять именно это слово в процессе построения переведённой фразы,в зависимости от других слов - алгоритмически...
Ничего Google Translate не понимаетhttps://translate.google.com/#ru/en/%D0%97%D0%B0%D0%BC%D0%BE%D0%BA%20%D0%BF%D0%BE%D0%B2%D0%B5%D1%81%D0%B8%D0%BB%20%D0%BD%D0%B0%20%D0%B4%D0%B2%D0%B5%D1%80%D0%B8https://translate.google.com/#ru/en/%D0%97%D0%B0%D0%BC%D0%BE%D0%BA%20%D0%BF%D0%BE%D0%B2%D0%B5%D1%81%D0%B8%D0%BB%D0%B8%20%D0%BD%D0%B0%20%D0%B4%D0%B2%D0%B5%D1%80%D0%B8
>>431731 Что замок (castle) тоже бывает из дерева, не только замок (lock). >>431733>>431734 Охлол. Там просто алгоритм.>>431733 Прикол - в ударениях на гласные буквы внутри слова. Разные ударения - разные значения.И эти ударения — нельзя задать, они обрабатываются однозначно.
Или/или, +/-, примерно или наоборот, какие ещё варианты? Приделать кнопочку задать вопрос google.translate и спросить: Сколько весит одна брешечка?
https://translate.google.com/#en/ru/What's%20the%20difference%20between%20fall%20and%20fall%3F%20Fall%20is%20a%20season%20while%20fall%20is%20a%20plunge.Ещё один казус. Неужели мудрая нейросеть не понимает, что я хотел здесь сказать? Интересно, какой трейнинг сет нужен, чтобы нейронка смогла это правильно перевести?
>>431748Нет, он должен был понять, что замки из дерева никто не делает, а вот замки вполне себе строят. Но поскольку это невозможно сделать, исходя только из статистики использования слов, нейронка предсказуемо обсирается.
>>431749>>431750Нет сначала ты должен был сказать как правильно, это же язык, а не законы. Ну а так прикольно было бы нужно тебе например в Японию, такой туннель открываешь и оказываешься там через пару минут абсолютно бесплатно.
>>431750Я вообще изначально подумал, что тебя интересует замок (lock) из дерева,а не замок (castle) и что у тебя перевод вызвал недоумение.Поэтому оставил картинки крепостей из дерева.Но раз ты такой - пикрелейтед.Кстати, в этом твоём сообщении, тоже непонятно какой замок ты имеешь в виду, ибо слово "строить" можно интерпретировать как "конструировать" или "собирать" во фразе "строить дверной замок".Разве гугл переводчик использует нейронную сеть? А вот управление ударениями при вводе - могли бы прикрутить туда.
>>431758>ибо слово "строить" можно интерпретировать как "конструировать" или "собирать" во фразе "строить дверной замок".Не в русском языке.
>>431749>What's the difference between fall and fall? Fall is a season while fall is a plunge.>В чем разница между падением и падением? Падение - это сезон, в то время как падение - это окунуться.А вот тут, значение слова - скорее зависит от контекста, т. е. от слов находящихся рядом с многозначным этим словом.Т. е. конкретно - от фраз:>Fall is a season>fall is a plungeЭто могло бы обрабатываться и нейронными сетями.Но если ты хочешь полностью увидеть значения - введи лишь одно слово fall: https://translate.google.com/#en/ru/fallИ внизу смотри fall: варианты перевода - их там больше 50-ти этих вариантов.И очевидно, что если в этих фразах - речь о сезоне и падении,значит в первом случае подразумевалась осень (сезон), а во втором - просто "падение".И взаимосвязь между переводом первого слова fall в первом предложении - устанавливается ассоциативно с фразами из второго предложения!Поэтому и значение первого слова фразы в переводе: "В чем разница между падением и падением?"должно было бы быть задано однозначно, в соответствии с этой ассоциативной связью, на основе инфы из второго предложения.Таким образом, получился бы перевод: "В чем разница между осенью и падением? Осень - это сезон, в то время как падение - это окунуться"Кстати, слово окунуться тоже не совсем удачное здесь. Ведь plunge означает ныряние и погружение: https://translate.google.com/#en/ru/plungeИ если речь в предложении идёт о существительном (к ним можно задать вопрос "кто?" или "что?"):то имело бы смысл сразу задать значение слова plunge как "погружение":cуществительное, неодушевлённое, средний род, 2-е склонение: https://ru.wiktionary.org/wiki/погружениеПричём тоже на основе разбора значения слов из второго предложения.Таким образом, получился бы более корректный перевод:"В чем разница между осенью и падением? Осень - это сезон, в то время как падение - это погружение".
>>431758>Разве гугл переводчик использует нейронную сеть?>>431760>Это могло бы обрабатываться и нейронными сетями.Единственное что я видел из нейроситей у гугла, так это нейросеть Deep Dream с обработкой изображений наложением эффекта Magic Eye
>>431762Помимо собак и глаз - она ещё птичек на фото моежт накладывать. Пикрелейтед - Bird Magic Eye though Deep Dream
>>430355 (OP)Просто оставлю ITT https://ru.wikipedia.org/wiki/Контекстно-зависимые_вычисления и Контекстно-зависимые мобильные обучающие системы
То есть как это Гугл Транслейт не использует нейросетку, Википедия врет? https://ru.wikipedia.org/wiki/%D0%9D%D0%B5%D0%B9%D1%80%D0%BE%D0%BD%D0%BD%D1%8B%D0%B9_%D0%BC%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D1%8B%D0%B9_%D0%BF%D0%B5%D1%80%D0%B5%D0%B2%D0%BE%D0%B4_Google
>>431767Да, врёт.Если бы для перевода использовались нейросети, они несли бы такую неебическую пургу, что половина треда держалась бы за животики, а вторая за жопы.
>>431664> Успех нейросетей в понимании текста показывает, что сознание всего лишь алгебраическая структура.А это никогда и не отрицалось. В нейрофизиологии теории типа нервной модели стимула Соколова общепризнаны с 60х годов и подтверждены практическими исследованиями. В таких моделях кроме линейной алгебры и нет ничего. Но, хотя векторная природа близости стимулов давно не ставится под сомнение, конкретные применения этого факта не шли дальше алгоритмов классификации, всякого векторного квантования итд. Что-то поинтереснее не делал никто, даже элементарные вроде вещи типа лингвистических регулярностей. Я больше скажу - могу сванговать, что это работает не только для текста, но и для мультимодальных моделей векторных представлений картинок, видео, звука итд. Все же на поверхности, но всем похуй.
Я тут опомнился и понял что итт забыли обсудить самое простое противоречие идеи "понимание есть возможность работать с сигналами". В ней нет границы между пониманием как у челвека и обычным условным рефелксом. Т. е. животных тоже тренируют в цирке отвечать на вопрос сколько будет 2x2, но это есть выработка условного рефлекса, никто не назовёт это пониманием. Чем отличается возможность логического вывода у человека от условного рефлекса, которй тоже у человека есть ? В общем-то мои примеры про школьников тоже из этой серии, плохо понимающий школьник, который верно отвечает на вопрос это именно что тот у кого выработался условный рефлекс, на сигнал "логарифм" вырабатывать ответный сигнал "степень в которую нужно возвести основание, чтобы получилась число под логарифмом".
>>433378Рассмотрим твой пример со школьниками. Психолог Жан Пиаже считал, что пока не сформируются структуры человеческого интеллекта, которые соотвестуют основным математическим структурам, дети ничего не будут понимать. Все равно, что в детском саду преподавать что такое алгоритм, если нет еще в голове структур соотвествующих этому знанию.
>>433464Я о том речь и веду, что это условный рефлекс, а не понимание. Не вижу гарантии что обученная нейронная сеть будетделать не так, а именно понимать.
>>433642> Я о том речь и веду, что это условный рефлекс, а не понимание.Вся нервная деятельность, в т.ч высшая - это рефлексы. Ты, конечно, можешь сказать, что Сеченов хуй простой, как и Павлов, но тогда к тебе вопрос - покажи в ЦНС субстрат "понимания", работа которого не сводилась бы к рефлекторным механизмам. По поводу арифметики у животных, лень пояснять за такие нейрофизиологические модели как ATOM (a theory of magnitude) и MT (metaphor theory), суть там в том, что есть области мозга (нижняя префронтальная кора), которые реализуют понимание числа у человека и животных, причём это не зависит от обучения и даже от языка. Естественно, там тоже никакой особой уличной магии, обычные взаимодействия групп нейронов, все те же рефлексы. Точка зрения Пиаже в упомянутых работах обоссана официально, все запруфано нейровизуализацией.
Короче, пример выше опять же упирается в вопрос "что есть понимание?". Единственный известный мне внятный ответ на него - смысл есть использование, понимание есть возможность использования.
>>433678Если вся высшая нервная деятельность - это условные рефлексы, то мы приходим к бихевиоризму.То есть любого анона можно обучить чему угодно. А это не так. Человек либо умеет рисовать, либо ты его этому нкода не научишь. Только прерасположеность к тем или иным структурам задает способности человека.
>>433721>Человек либо умеет рисовать, либо ты его этому нкода не научишьWut. Как человек, чалившийся не один год в рисовачах разных сортов, требую твоему утверждению очень серьезных пруфов. Потому что согласно прорве материалов в виде личнотредов, к примеру это такой же навык, как и письмо, просто охуенно более комплексный и сложный.
>>433725Соласен с рисованием плохой пример. Вот абсолютный слух или математические способности - хороший пример. В любом случае ты же не будешь отрицать наличие у некоторых людей тех или иных талантов с рождения.
>>433739> Вот абсолютный слух или математические способности - хороший пример. В любом случае ты же не будешь отрицать наличие у некоторых людей тех или иных талантов с рождения.И как это опровергает рефлекторную природу нервной деятельности? Индивидуальные различия особей есть у всех видов, т.н норму реакции даже в школе проходят. У кого-то член длиннее, у другого местами связей между нейронами побольше и метаболизм медиаторов пободрее.
>>433721> Если вся высшая нервная деятельность - это условные рефлексы, то мы приходим к бихевиоризму.То есть любого анона можно обучить чему угодно. А это не так.В общем случае - так. Нейропластичность никто не отменял. Другой вопрос, что методы обучить чему угодно тебе не понравятся, т.к это либо годы работы, либо электричество в качестве подкрепления, да и конечный результат может различаться для разных особей. А так, есть ЦНС, значит можно получить любой поддерживаемый аппаратно результат.
>>433761Если бы человек работал как универсальный обучающийся алгоритм, то скажем Пушкин должен был доказать еще и теорему Ферма. Но способности вещь часто довольно специфическая для разного типа деятельности.
>>433777>Если бы человек работал как универсальный обучающийся алгоритм, то скажем Пушкин должен был доказать еще и теорему Ферма. Но способности вещь часто довольно специфическая для разного типа деятельности.Это ты так думаешь. На определенном уровне понимания все виды деятельности это одно и то же. Есть такая довольно известная в определенных кругах книжка - "книга пяти колец" Миямото Мусаси. Автор - средневековый самурай, всю жизнь занимался военным делом (первого врага убил в 13 лет и все такое), участвовал в нескольких мелких войнушках итд. Так вот, годам к 50 до него дошло, что искусство плотника или чайного мастера по своей сути ничем не отличается от искусства махать катаной. Все так или иначе сводится к одним и тем же правилам, учитывая которые можно овладеть любым умением. Эти правила он и изложил в вышеупомянутой книжке. Они, кстати, тривиально сводятся к теории статистического обучения (есть такое направление в машинном обучении), поэтому для алгоритма нет разницы, к какой предметной области относится идентифицируемая система, у Вапника тоже изложены соображения на эту тему на эту тему пикрелейтед. Между прочим, сам Мусаси уже после 50 лет научился рисовать, причем достаточно годно для того, чтобы у него заказывали работы всякие аристократы.
>>433797Мусаси я читал не впечатлило. Чисто японская история: "Вкалывайте, вкалывайте, вкалывайте!". То есть ты хочешь сказать, что для любой деятельности есть своя аксиоматика, овладев, которой ты становишся мастером. В этом я, пожалуй, с тобой соглашусь, но такова природа предметной области, а не человеческого ума. Ты хочешь сказать, что эту аксиоматику человек человек сам раскрывает пытаясь чему-то научиться. Объясни, пожалуйста, причем тут статистическое обучение и аппроксимация функций?
>>433797Извлечение аксиом из предметной области - это большая и перспективная тема, не имеющая ничего общего со статистическим обучением.http://philomatica.org/wp-content/uploads/2016/04/kovalev1.pdf
>>433859> То есть ты хочешь сказать, что для любой деятельности есть своя аксиоматика, овладев, которой ты становишся мастеромНе совсем. Я хочу сказать, что любая деятельность на определённом уровне понимания это одно и то же. Важно увидеть общее в разных предметных областях. И тут уже возможны варианты, к одним и тем же выводам можно прийти из очень разных соображений. Начнём с того, что рефлекс, являющийся основой любой нервной деятельности, неспецифичен по отношению к предметной области. Это просто общий механизм. И у него общие методы формирования. Которые при желании можно и формализовать, т.н уравнения Хебба - простейший пример. Входы и выходы могут меняться, но механизмы работы рефлекса одни. > Объясни, пожалуйста, причем тут статистическое обучение и аппроксимация функций?Все сказанное чуть выше касается и статистического обучения, скрины из Вапника как раз об этом. Алгоритм один и тот же для любой предметной области, разные только набор функций и параметров модели. Аппроксимация функций тут при том, что к функциям можно свести любую деятельность человека (инструментальные рефлексы), т.е задача - подобрать вход, дающий нужный выход. В процессе обучения чему угодно это делает человек, это же делает и алгоритм. И как алгоритм, так и механизмы работы ЦНС неспецифичны к предметной области. О том же пишет и Мусаси.
>>433871Спасибо за разъяснения. Теперь я понимаю, почему так все начали форсить Павлова. Порекомендуй что-нибудь почитать по теме обучения человека с точки зрения машинного обучения.
По теме треда. Все человеческое знание содержиться в моделях. Для того чтобы построить модель нужно выстроить аксиоматику.
>>433953> По теме треда. Все человеческое знание содержиться в моделях. Для того чтобы построить модель нужно выстроить аксиоматику.Ты свою же схему с ног на голову поставил. Там аксиомы выводятся из чего-то, а ты хочешь наоборот априорно построить аксиоматику для всего. Даже для чисто формального языка, как математика, это сделать сложно, есть свои подводные камни. >>433884> Порекомендуй что-нибудь почитать по теме обучения человека с точки зрения машинного обучения.Я такого не встречал, обычно танцуют наоборот, от естественных процессов к алгоритмам. По обучению это reinforcement learning, q-learning, POMDP - partial observed markov decision process, итд. Самый простой случай - уравнения Хебба.
>>433979Противоречия нет. Аксиоматика и есть контекст, совокупность связей между понятиями. Извлечение аксиоматики — это построение контекста.Хотя я думаю не все так просто. Есть тексты научные, а есть гумманитарные. Гуманнитарные тексты не основываются ни на какой аксиоматике, а есть просто совокупность утверждений без логического вывода. И там контекст определяется ассоциативной совместимостью одних слов с другими. Что-то подобно тому о чем писали сверху про natural language processing.
>>433996Mind Map не подходит для этих целей. Скорее заметки с тегированием понятий и связями между тегами типа CintaNotes.
>>434015Жизни не хватит, чтобы затегировать. Фреймы Минского или OWL, или ещё какая хуета типа семантических триплетов - структуры давно уже придуманы. А вот заполнять их заебёшься, в этом основная проблема.
>>434016Да, я не спорю. Вручную такого никто делать не будет, хотя существование википедии говорит об обратном. Просто когда ребенок учиться он и так это все делает, бессознательно овладевает аксиоматикой и правилами вывода. Может есть смысл это как-то формализовать. Ну или хотя бы учебники по такому принципу писать.
>>434020Википедия не говорит об обратном, еблан. А то, что дети учатся - ну хуле, запили ИИ, который будет учиться.
>>434021Наверно ИИ на аксиоматическом методе не построишь - это слишком специфично для человеческого мышления. Куда более реалистичным выглядит такой вариант развития ИИ как relational reasoning."They show how neural networks can be given a powerful ability to reason by decomposing the world into systems of objects and their relations, allowing them to generalise to new combinations of objects and reason about scenes that superficially might look very different but have underlying common relations."https://deepmind.com/blog/neural-approach-relational-reasoning/
>>434041У тебя каша в голове. "Горе от ума", как сказала бы твоя классная руководительница. Отложи пока эти сложные вопросы и подтяни математику и физику.
>>434074Ты абсолютно прав. В голове каша и я пишу о вещах, в которых плохо разбираюсь, потому что не имею профильного образования. Анивей для меня понимание чего-либо связано с рассуждением от неких постулатов к тому, что требуется доказать, меня так в школе научили, но большинство научной литературы построено не так, а на неких ничем необоснованных (или правильней сказать непостроимых) утверждениях, а это не правильно. Смысл прочитанного где-то теряется. Так в чем смысл? Интуитивно чувствую, что смысл в связях. Но что дальше с этим делать не понимаю.
>>434099> Интуитивно чувствую, что смысл в связях. Но что дальше с этим делать не понимаю.Строить модель, которая эти связи может выявлять. Дальше уже смотреть, что можно сделать с такой моделью. Пример с word2vec очень хороший, то же самое можно было бы сделать с алгебраическими представлениями картинок, видео, звука итд. Которые, например, могут строиться сверточными сетями. Т.е отображать отношения и связи между объектами, например по типу лингвистических регулярностей в тексте. Так можно очень легко выйти на возможности, которые раньше считались свойствами только человеческого интеллекта, недоступными алгоритмам
Помню в универе проходил матлогику, когда впервые увидел, подумал что это панацея: возводит всё к формальным, строгим правилам, общим для всего. А потом понял, что к логическому выводу синтаксический вывод никакого отношения не имеет, т. к. всё зависит от моделиа модель может быть любой. И вроде бы построения ИИ при помощи обучения на огромной базе все проблемы решает, т. к. выстраиывает статистически верную модель. Но мне всё же не даёт покоя тот факт что в природе полно всего что работает по формальным правилам, отбираемым статистически, но ничто из этого не называется пониманием. А главная моя проблема в том, что потенциально возможны системы, которые случайным образом могут выдавать правильный ответный сигнал, на входной, а это ведёт к контенту уровня ренТВ.
>>434142> к логическому выводу синтаксический вывод никакого отношения не имеет,Вообще, имеет, самое прямое. Просто не вся матлогика одинаково полезна. Аксиоматика Гильберта это одно, а натуральная дедукция Генцена -Правитца совсем другое, например. Потом, язык это в любом случае деятельность человека, хоть простой разговорный, хоть чисто формальный математический. Если точнее, можно выделить 5 уровней языка, различающихся степенью связей между словами и их совокупностями. > мне всё же не даёт покоя тот факт что в природе полно всего что работает по формальным правилам, отбираемым статистически, но ничто из этого не называется пониманием.Это вопрос того, что считать пониманием.
>>434170>Это вопрос того, что считать пониманием.Я люблю поразмышлять об этом иногда. Вот в треде пишут, что вся высшая нервная деятельность описывается рефлексами, с другой стороны:>>434102>возможности, которые раньше считались свойствами только человеческого интеллекта, недоступными алгоритмамВедь рефлекс суть соответствие выходного сигнала и входного, как тогда вообще можно было сомневаться в алгоритмах ? Сомнение в том что он сможет сам учиться это нормально, но сомнений в том что он сможет выполнять вывод как человек не может быть при таком ходе рассуждений>>434170>Аксиоматика Гильберта это одно, а натуральная дедукция Генцена -Правитца совсем другоеЯ не знаю ни то ни то, у меня была просто матлогика в универе.
Тех, кто говорит, что невозможно, потому что нужны аналоговые устройства, прошу напомнить или подумать над тем, что такое время.
>>434241> Ведь рефлекс суть соответствие выходного сигнала и входного, как тогда вообще можно было сомневаться в алгоритмах ? Сомнение в том что он сможет сам учиться это нормально, но сомнений в том что он сможет выполнять вывод как человек не может быть при таком ходе рассужденийА никто особо и не сомневался. Иначе эту область вообще бы не развивали. Там вопрос больше в работе с неточными значениями, но для этого есть мягкие вычисления, например нечёткая логика. Давно показано, что такие алгоритмы могут и поезда в метро водить, и диагнозы ставить, и металлургическим процессами управлять не хуже человека. Считается, что все это относится к "слабому ИИ ", тогда как " сильный ИИ " это мыслящая машина.
>>434304Но тогда нет разницы между сильным и слабым ИИ. Если вся высшая нервная деятельность это рефлексы, то и сильный ИИ должен строится на них, а они элементарны для алгоритмов. Весь спор о самосознании что-ли ?
>>434310> Весь спор о самосознании что-ли ?Да. Поскольку у человека оно очевидно есть, а у алгоритма его столь же очевидно нету, причём даже примерно неизвестно, что оно вообще из себя представляет и как сводится к рефлексам.
>>430355 (OP)ОП, ты хуй. Ты забыл, что контекст из понятий зыбок, поскольку каждое понятие определяет конкретный индивид. Если бы с опытома именно опыт ты понимаешь как знание, исходя из контекста приходило понимание истинной природы обьекта, то не возникали бы сложные разночтения, например. Или доказательство Перельмана было бы доступно любому математику, вникнувшему во все кусочки этого пазла. На практике мы видим несколько иную картину: в мире существует от силы три десятка математиков, вникнувших в это доказательство. Иже с ними и разного рода единичные ницшеведы против тысяч школьников, прочитавших только "Так говорил Заратустра".
>>434353Но хуй - это ты. Если бы "контекст" был индивидуальным, коммуникации не существовало бы, н-р не было бы языков в принципе как явления, т.к. два разных человека, говоря одно и то же, имели бы в виду разные вещи.
>>434363>два разных человека, говоря одно и то же, имели бы в виду разные вещиТак они и имеют в виду разное. Просто в их определениях есть общие места.
>>434404> Так они и имеют в виду разное. Просто в их определениях есть общие места.Ты не понимаешь даже сути разговорного языка.
>>434404>Так они и имеют в виду разное. Просто в их определениях есть общие места. Этот вроде тралит, но утверждение в целом верное.
>>434416> Этот вроде тралит, но утверждение в целом верное.Нет. Обьясню, почему. Значение слова - это его использование. И оно одинаковое для одинакового слова в одинаковом контексте. Именно это делает вощможным коммуникацию вообще как явление. А ассоциативный ряд да, индивидуален. И смешивать эти вещи неправильно. Возьмём пример - песня наутилуса из 80-х. Значение слов там для всех одно, но кто-то эту песню в прошлом году случайно услышал, а кто-то под неё ещё в перестройку портвешок патлами закусывал и вообще поебался впервые. Естественно, ассоциации в данном случае будут разные для разных индивидов.
А вообще каковы сейчас возможности обсуждаемых итт моделей в плане обучения ? Они могут изобрести новое понятие ?>>431336В это посте о чём речь ? Что, для того чтобы освоить числа больше n и вектора большей размерности, нужно давать на обучение наборы сигналов которые в своей семантике име отношение к числа больше n и векторам больших размерностей ? Ведь человек не имеет дела с огромными числами и векторами больше 3 размерности, но посчитать это сможет кто угодно ведь.
>>434417Нет, правда погугли. Многие учёные, даже диды обученные при союзе считают чудом тот факт, что мы вообще друг друга понимаем. Т. к. при общении важен контекст который у человека в голове. Там и задержка есть(пока нужный контекст по услышанному слову загрузится воперативную память) и произвольность доступа к памяти и неидеальное восприятие услышанного и ещё посторонний шум: эмоции, сигналы от органов чувств, предыдущий контекст. Было такое что ты слова путал ? Или вдруг понимал что немножко не про то говоришь с собеседником ? Случаи из серии "Ты мне про Фому, я тебе про Ерёму".
>>434420> Они могут изобрести новое понятие ?А что есть новое понятие? >>434422> Нет, правда погугли. Многие учёные, даже диды обученные при союзе считают чудом тот факт, что мы вообще друг друга понимаемЭто опять же вопрос того, что вообще есть понимание. И как уже говорилось, лучшее определение понимания - "умение/возможность использования". С этой точки зрения никакого чуда нет. А индивидуальные ассоциации это наоборот то, что мешает прямому пониманию.> посторонний шум: эмоции, сигналы от органов чувств, предыдущий контекст. Было такое что ты слова путал ? Или вдруг понимал что немножко не про то говоришь с собеседником ? Случаи из серии "Ты мне про Фому, я тебе про Ерёму".Вот я об этом же. Ассоциации, не связанные с правильным использованием слова в текущем контексте - это помехи пониманию.
>>430375 Образованный человек знал бы что англичане спиздили граматику у римлян. Поэтому у них немного ебанутая разница в письме и разговорной рече.По факту есть книга The Power of Reading Stephen Krashenчеловека, порохода и создателя теории language acquisition and development. Где он активно развивает и разжигает по интересующемы автора вопросу.https://m.youtube.com/watch?v=NiTsduRreugДля немогущих в либгене.
>Ассоциации, не связанные с правильным использованием слова в текущем контексте - это помехи пониманию.Текущий контекст тоже произволен, а не фиксирован, эмоции, сигналы и предыдущие контексты как раз не посторонний шум, а то что помогает в ориентации в текущем контексте, но может и не помогать, или на примере: не факт что сказанное про Фому окажется неправильно и надо отбросить, а про Ерёму правильно, здесь нет какого-то простого исключающего правила, но оно может вводиться для упрощения.
>>434438Ну в моем изучении английского, я понял одну просту вещь. Понимание проистекает из опыта. Что бы понять что то нужно получить некий объем опыта связанный с вопросом. Объем в прямую корелируется с кривой обучения. И здесь возникает проблема. Твоя фрустрация в получении опыта тоже является опытом. Таким образом испытывая негатив в процессе обучения единственно что ты получешь негатив. Можно сказать негативные и позитвные эмоции это своеобразный доос забивающие все остальное. Оптимизм новичка может быть неменее разрушителен чем избыттчная осторожность неудачника. По факту даже более разрушительна.Второй компонент это встроенные в мозг защитные фильтры. Никто из нас не хочет в дурку поэтому такие вещи нужно уважать.Соответсвено контекст = равен опыту.
Все опять начали постить хуйню, а я опять вкину ссылку на википудию.https://ru.wikipedia.org/wiki/%D0%9A%D0%BE%D0%BD%D1%82%D0%B5%D0%BA%D1%81%D1%82
КОНТЕКСТ, законченный в смысловом отношении отрывок письменной речи (текста), точно определяющий смысл отдельного, входящего в него слова, которое вне К. может иметь различные значения. Так, напр., в строках Пушкина «И браней ужас я делил» и «Сбирай оброк хвалой и бранью» из К. видно, что слово «брань» в первом случае означает «битву», а во втором — «ругательство».
>>434439В естественном языке очень мало когда что-то одно полностью равно чему-то другому, чаще это +/- пересекающиеся или взаимозависимые понятия, но контекст как мне кажется выходит за пределы самих понятий или их совокупности, вот мне например чтобы сейчас тебе ответить достаточно просто того что помню, но если бы я сидел перед преподом и сдавал экзамен, мне для полноты ответа надо было бы по определениям вычислить ему эту разницу и возможно привести какие-то примеры, а если бы меня прохожий на улице спросил что такое контекст я бы может действительно и сказал что это просто опыт, или вообще сделал вид что не понимаю про что он говорит.
>>434439>Соответсвено контекст = равен опыту. Погоди, тот анон тебя всё же подловоил. Дело в том, что контекст это понятие объёмное и его целесообразно в разных дисциплинах определять по разному. Пример: носитель информации в прикладнйо информатике - ну там ЖД, бумага, флешка; в теории информации - сигнал. В плане обучения обсуждаемых моделей контекст это скорее действительно опыт, а в той дисциплине которая изучает коммуникацию людей(кстати что это) контекст это то, что в "оперативной памяти" человека. Тут можно вечно спорить, если пытаться смешать всё под одно определение, а это и не нужно.
>>434431>А что есть новое понятие? Я вроде понимаю что чтобы что-то назвать, нужно чтобы это что-то было, т. е. получить новый сигнал, установить его связи с уже известными и теперь этим сигналом можно пользоваться в языке, отвечать на запросы используя и его. Возьмём пример отсюда:>>431087 Модель понимала что есть 11, elven, но как у неё дела с числами, которые в тексте не встретились ? Человеку легко объяснить что такое число гугол, просто показав его, хотя до этого он никогда не видел и не работал ни с одним представлением этого числа.
>>434451Мозг не эвм. Там нету оперативки, проца и жесткого диска. Информация как таковая там не хранится. Если два человека будт рисовать купюру они нарисуют разное. Просто потому, что нет в мозге человека никакого изоброжения купюры. Поэтому любые подходы к работе мозга с точки зрения информатики профанация и суеверия.
>>434363Я не говорю, что контест не может быть обобщенным для разных индивидов, но все же он индивидуален для каждого конкретного субъекта. Еще раз: я указываю на зыбкость понятий, определяющих контекст. А пример с доказательством гипотезы Пуанкаре - свидетельство этой зыбкости.Другой пример: квадрат Малевича. Одни считают, что это насмешка над искусством модерна, другие считают вполне техничной работой. В одной передаче на Культуре даже оглашалась идея того, что Малевич пытался передать ding an sich, и эта версия в красках расписывалась через "Арзамасский ужас" Льва Николаевича. Но истинная суть квадрата скрывается под внешней оболочкой - это был ответ одному экспрессионисту того времени, тщательно закрашенный черной краской. Был ли это ход гения, породивший супрематизм или банальное сокрытие позора - никто, кроме Малевича не знал.
>>434448> Модель понимала что есть 11, elven, но как у неё дела с числами, которые в тексте не встретились ? Человеку легко объяснить что такое число гугол, просто показав его, хотя до этого он никогда не видел и не работал ни с одним представлением этого числа.Понятие натурального числа представимо через лингвистические регулярности, но не думаю, что педивикии для этого хватит, хотя я на полном дампе такие модели не строил, там 61гиг xml. Грубо говоря, оно должно понимать выражения типа "один так относится к десяти, как пять к пятидесяти". Возможно, нужно действовать хитрее и определить натуральное число как в теории типов, через натуральную дедукцию Генцена - Правитца. Я выше показывал, как через лингвистические регулярности представить правила натуральной дедукции. Тогда у модели будет представление не о конкретном натуральном числе, а о любом, даже таком, какие ей не встречались. >>434443> КОНТЕКСТ, законченный в смысловом отношении отрывок письменной речи (текста), точно определяющий смысл отдельного, входящего в него слова, которое вне К. может иметь различные значения. Так, напр., в строках Пушкина «И браней ужас я делил» и «Сбирай оброк хвалой и бранью» из К. видно, что слово «брань» в первом случае означает «битву», а во втором — «ругательство».Много букв, но зачем вся эта заумь, если она все равно сводится к контексту в смысле модели word2vec? Там контекст - это просто количество слов, окружающее данное. Например +-2. Дальше просто считается, как часто данное слово встречается в данном контексте (ну не просто считается, со спецэффектами типа иерархического софтмакса, но это уже детали).
>>434453>Мозг не эвм. Там нету оперативки, проца и жесткого диска.Да, но "оперативка" есть. Как бы текущий конфиг эмоций и мыслей. Погугли про психологию коммуникаций или тип того, там именно это под контекстом понимают. А итт такое определение не годится.>>434451>Ты же сам и смешиваешь.Ты меня перепутал с кем-то.
>>434458Не оперативка, а динамическая память. В оперативке состояние ячеек со временем не изменяется, при условии постоянной подпитки и того, что эти данные никак не трогаются. В мозге же протекают постоянные процессы образования и разрыва нейронных связей, химические реакции, да и просто блуждают импульсы. Поэтому нет абсолютной памяти образов. И поэтому Савельев утверждает, что ИИ - чистая профанация. Слишком много недискретизируемых величин, которые еще и постоянно изменяются.
>>434459> поэтому Савельев утверждает, что ИИ - чистая профанация. Слишком много недискретизируемых величин, которые еще и постоянно изменяются.Савельева вашего на международных конференциях зачитывают посмеяться, был случай. Простой вопрос - почему тогда естественный интеллект не профанация, а набор вполне реальных свойств (и лежащих в их основе структур) ЦНС?
>>434459>Не оперативка, а динамическая памятьОдно другому не противоречит.>СавельевТут годный тред, давайте без Савельева.
>>434443Смотри если твой текст читае ребенок он понятия не имеет, что такое "И браней ужас я делил". Если его читает подросток ему плевать потому как у него половое созревание и прочие гормоны. Зато он понимает Ромео и Джульету. Если текст читае опытный читатель, знающий что такое брань, понимающий чтотакое война он поймет смысл фразы. Но для этого он должен быть опытным, читать не один год и даже не пять.Вывод: текст сам по себе ничего не значит. Контекст проистекает из пересечения опыта читателя и автора. А если общего опыта нету и контекста нету.
>>434474> Вывод: текст сам по себе ничего не значит. Контекст проистекает из пересечения опыта читателя и автора. А если общего опыта нету и контекста нету.Обсуждаемые модели типа word2vec видят только текст, никакого опыта у них нет. Если бы сам текст не значил ничего, такой темы как natural language processing не существовало бы. В твоём случае "опыт" сводится к умению применять слово в разных контекстах и выводится из статистики такового употребления.
>>434479Согласен на самом деле все сложнее поскольку есть три уровня чтения. 1)Чтение как процесс. 2)Понимание отсылок внутри книги. 3)Понимание отсылок ко внешним источником. У трех разных читателей владещих чтением на разных уровнях понимание контеста будет разное.
>>434469Еще как противоречит. Оперативная память - тот же хард, только с быстрой записью-чтением.>>434464https://youtu.be/o3LLQlobATIСтатья: https://m.nkj.ru/archive/articles/33144/Поэтому над учеными, обещающими ИИ тоже принято посмеиваться.
С формальной точки зрения понимание — это сжатие данных путем повышения уровня абстракции. К примеру, летают всякие разные планеты, составляются таблицы их движения, потом приходит Кеплер и выводит свои законы, тем самым люто сжимает данные до нескольких строчек символов. Так и происходит понимание.
>>434669То, что ты описал - это идентификация систем, построение модели системы. Алгоритмы это умеют давно, местами и получше человека.
>>434675Здорово. Осталось только машины теоремы автоматически доказывать научить. Вот тебе и мышление.
>>434678> Осталось только машины теоремы автоматически доказывать научить.В принципе, уже. Пруверы и теорию типов никто не отменял. В Coq'е очень крутая система т.н тактик, оно очень многое может доказать вообще без участия человека.
Насколько я понимаю (а понимаю я в этом очень мало), Coq работает как пруф чекер и верефицирует готовое доказательство. А можно сделать полностью автоматическую систему без участия человека?
Мне кажется такой прувер пилит Максимка.https://github.com/groupoid/groupoid.space/blob/master/tex/slides/diss/DISS.pdf
>>434682> Насколько я понимаю (а понимаю я в этом очень мало), Coq работает как пруф чекер и верефицирует готовое доказательство. Нет. Просто чекнуть доказательство мог ещё AUTOMATH де Брауна из 60-х. Кок круче, он может не только чекнуть готовое, но и построить доказательство. В некоторых случаях тактики все делают сами. Но в общем случае, конечно, такой возможности пока нет.
Анон, который шарит в дедукции Герцена-Правитца, можешь пояснить за парадокс чёрных воронов и как с ним справляется эта дедукция ? Я так понял это как раз баг Гильбертовой аксиоматики.https://ru.wikipedia.org/wiki/%D0%9F%D0%B0%D1%80%D0%B0%D0%B4%D0%BE%D0%BA%D1%81_%D0%B2%D0%BE%D1%80%D0%BE%D0%BD%D0%BE%D0%B2
>>434707> Анон, который шарит в дедукции Герцена-Правитца, можешь пояснить за парадокс чёрных воронов и как с ним справляется эта дедукция ? Я так понял это как раз баг Гильбертовой аксиоматики.Думаю, это вообще не для матлогики задача. Конструктивная логика тут тоже вряд ли чем поможет, если вместо аксиом мыслить в терминах пруф-обьектов, результат не изменится же, ну разве что полным перебором получится доказать, что не все вороны чёрные. То же самое с отрицанием, если его не принимать как аксиому, а потребовать построения примеров, опять же выйдем на примеры не чёрных ворон, что и опровергает изначальное предположение. Но пример с воронами не очень, наверняка можно придумать случай, когда изначальные теоремы будут истинны в т.ч конструктивно. Поэтому там и не придумали ничего лучше формулы Байеса.
Существует такой проект - Common Crawl, типа архива всего интернетика (!), на основе него можно получить корпуса текста в сотни миллиардов слов. Естественно, не может быть и речи о локальной работе со всеми этими петабайтными архивчиками, нужно поднимать подходящий по мощности амазоновский инстанс (тем более, что эти обновляющиеся архивы на амазоновских серверах и лежат). По-сути, речь не только о потенциальном гуглозаменителе, но и основе, на которой можно строить модели векторных представлений, упоминавшихся ИТТ, https://arxiv.org/abs/1712.09405 примеры таковых вылошены на https://fasttext.cc/ но это опять же игрушечные примеры. Интересно, что прямая работа с Common Crawl доступна любому мимохую, а не только военным и госструктурам, в интересные времена живем, даже не верится, что такое существует, тем более нахаляву сейчас пытаюсь разобраться, как такую хуйню сделать, код для работы с моделями типа word2vec у меня давно есть. Жалко, что только сейчас узнал об этой теме, может быть уже и поздновато, т.к. роскомнадзор вовсю воюет с амазоном (формально из-за нескрепоугодного п2п мессенджера zello, но мы-то знаем). Как бы нашу африку вообще оттуда не выгнали.
Существует ли алгоритм определения иронического или саркастического сообщения по одному только его тексту? Около четверти интернета состоит из такого рода сообщений, но смысл их либо противоположен прямому либо выделяется неявным образом. Если по коннотациям например можно набрать статистику то как быть с этим?
>>435438Это в любом случае не опровергает идею сильного ИИ, т. к. сарказм это интонация, как выше писал анон, обсуждаемым итт поделям можно дать возможность обрабатывать другие сигналы кроме текста, в т. ч. звук, и тогда ИИ точно справится с распознаванием сарказмов и т. п. А по тексту мне кажется нельзя.
>>435444Это не опровержение, это, скорее пища к размышлению, или даже риторический вопрос в форме мысли вслух, тоже кстати распространённый вариант высказываний. Но думаю в каких-то случаях саркастичность можно определить и по одному только тексту, когда прямой смысл определяется например как намеренно ошибочный, и даже если нет уверенности в намеренности, можно сгенерить похожий по форме ироничный ответ охватывающий предполагаемую ошибку, и по дальнейшему ответу уже точнее определять, как в шахматах когда человек сначала делает разумные ходы, потом вдруг один ход оказывается ну очень неразумным, и если следующий ход оказывается таким же то это уже может говорить о подобной намеренности.
>>435438> Если по коннотациям например можно набрать статистику то как быть с этим?Точно так же. Сарказм тоже есть использование слова в определённом окружении, т.е в определённой ситуации. Точно такая же статистика. Алсо, можно использовать классификацию с учителем, тексты помеченные как саркастические и нет. Сентимент анализ же есть, думаю тут нужно что-то из той же оперы.
>>435456Возможно, только с определённой определённостью всегда есть вероятности выхода за рамки этой определённости. С другой стороны, можно обходиться и без определения сарказма или другой формы как самоцели, ведь оно может иметь и отвлекающее от основного русла значение, оно может отмечаться как некая вероятность, можно в конце допустим добавлять "если это не сарказм" например, но ответы обычно всё-таки больше по содержанию интересны..
>>435489> Возможно, только с определённой определённостью всегда есть вероятности выхода за рамки этой определённости.Ну вот ты же всегда можешь распознать сарказм. А ты не задумывался, как у тебя это получается? Очевидно же, что тут все тот же принцип - использование некоего слова в некоем контексте. В общем случае не только лишь слова, конечно. Но для простоты можно ограничиться текстом. Ещё Фрейд пытался пояснить за суть юмора, не помню уже, вроде у него тоже все примеры можно понимать в рамках вышесказанного.
>>435555Всё-таки у меня вот не всегда получается его распознать, хотя принцип понятен, но нам проще, текст-то пишется людьми для людей и отправляет к достаточно привычным для нас вещам во внешнем мире. А если рассмотреть как это могло бы выглядеть со стороны АИ? Сплошной набор разделённых сигналов соединённый извне в произвольном порядке.
>>435630> текст-то пишется людьми для людей Текст пишется тем, кто может его использовать для того, кто может его использовать. Человечность тут не при чем. Если человек, знающий немецкий напишет текст для человека, не знающего немецкого, последний нифтга не поймёт, хотя оба люди
>>430355 (OP)Охуеть, высрал очевидную вещь какую-то, как откровение. Можешь теперь придумать свою теорию личности или философскую концепцию.
>>435655Не согласен с тобой, что все так уж очевидно. Для меня контекст - это большая картина, состоящая из связей. Весь вопрос в том, как эту картину построить.
Проблема построения контекста - это то, как единым образом выразить все множество отношений между объектами.
>>430355 (OP)Хорхе Луис Борхес в рассказе-эссе «Аналитический язык Джона Уилкинса» описывает «некую китайскую энциклопедию» под названием «Небесный эмпориум благодетельных знаний», где содержится классификация животных, согласно которой животные делятся на:а) принадлежащих Императору,б) набальзамированных,в) прирученных,г) молочных поросят,д) сирен,е) сказочных,ж) бродячих собак,з) включённых в эту классификацию,и) бегающих как сумасшедшие,к) бесчисленных,л) нарисованных тончайшей кистью из верблюжьей шерсти,м) прочих,н) разбивших цветочную вазу,о) похожих издали на мух.
>>435697Напомнило фрагмент из реального китайского трактата Чжуан Цзы:Хуэй Ши был очень ученым человеком, и его писания занимали пять повозок. Однако же его учение было причудливым, а речи уводили в сторону. Определяя смысл вещей, он говорил:«Предельно великое не имеет ничего вовне себя. Это называется великим единством. Предельно малое не имеет ничего внутри себя. Это называется малым единством.Не имеющее толщины не имеет протяженности, но простирается на тысячу ли.Небо находится на одном уровне с землей, горы находятся на одном уровне с озерами.Будучи в зените, солнце заходит. Рождаясь, вещь умирает.Быть подобным в большом, но различным в малом — это называется «малое подобие и различие». Все вещи в конце концов едины и в конце концов различны — это называется «большое подобие и различие».Юэ не имеет границы и все же имеет границу.Я отправляюсь в Юэ сегодня, а прибываю туда вчера.Соединенные кольца невозможно разъединить.Я знаю центр мира: он на север от Янь и на юг от Юэ.Люби безгранично всю тьму вещей; Небо и Земля — одно тело».Хуэй Ши считал эти суждения непревзойденными и думал, что постиг сущность всех доказательств. И в мире все любители спорить находили удовольствие в этом занятии. Они утверждали:«В яйце есть перья.У курицы три ноги.В городе Ин сходится весь Поднебесный мир.Собака может быть бараном.Лошадь откладывает яйца.У лягушки есть хвост.Огонь не горяч.Гора выходит из отверстия.Колесо телеги не касается земли.Глаз не видит.Того, на что мы указываем, нельзя достичь, а от того, что мы достигаем, нельзя отойти.Черепаха длиннее змеи.Угломер не имеет квадратной формы, циркуль не описывает круг.Дырка от долота не охватывает рукояти.Тень от летящей птицы не движется.Стрела летит стремительно, но есть мгновения, когда она не движется и не покоится.Щенок — не собака.Гнедой конь и черный бук составляют три.Белый пес черен.У жеребенка-сироты никогда не было матери.Если от палки длиною в вершок каждый день отнимать половину, не закончишь и через десять тысяч поколений».
>>435671> Проблема построения контекста - это то, как единым образом выразить все множество отношений между объектами.Линейная алгебра же. Операции над векторными представлениями слов и чего угодно в векторном пространстве представлений этих слов или чего там. Самые простые примеры - разные расстояния / метрики, отношения типа лингвистических регулярностей.
C этим >>435654 можно согласиться, что:>Текст пишется тем, кто может его использовать для того, кто может его использовать. Человечность тут не при чем. Теоретически именно так и есть. Практически выходит как на примере:>Если человек, знающий немецкий напишет текст для человека, не знающего немецкого, последний нифтга не поймёт, хотя оба люди.Соответственно, чем больше видовых отличий, тем меньше точек соприкосновения для выстраивания когнитивных связей между реципиентами. Принципы же построения нейронных связей пока что, ещё исследованы недостаточно, чтобы можно было брать за основу их оптимизированные алгоритмы. С другой стороны путь выстраивания с 0, хотя и без такого рода понимания как вариант тоже вполне уместен, ведь даже один супер-способный человек со всеми его многочисленными связями не может одновременно свободно говорить на 10 языках + писать технические руководства пользователей + делать тройное сальто играя на скрипке + моделировать космические станции и т.д.. А недостаток обратной связи в таком случае восполняется возможностью её настройки в любом понятном виде, не обязательно даже в виде языкового представления - это может быть любое интуитивно-понятное представление, графическое или в виде схем с пояснениями, такой себе user-friendly интерфейс для конкретных задач.
>>430355 (OP)Совокупность связей между понятиями - это и есть понимание. Выходит непонимание - это отсутствие понимания. В общем ничего нового, но кое в чём автор прав. Чтобы что-то понять, нужно иметь совокупность связанных знаний, то есть понимание. Т.е. чтобы чему-то научиться, нужно чему-то научиться. Смысл в том, что обучение - постепенный процесс, идущий по спирали. Нельзя просто взять и понять квантовую механику.
Я анон, который много писал про китайскую комнату в начале треда. Пожалуй, ОП меня убедил, что понимание есть использование, а разница между сильным ИИ и человеком в наличии субъективного опыта и "Я". Китайская комната в принципе тоже об этом. Я только укажу ещё раз 1 момент.Слово энциклопедия происходитотслова цикл. Т. е. это всего лишь замкнутый на себя, непротиворечивый набор знаний, не имеющий ничего общего с истиной. Древние энциклопедии предоставляют нам обширные контексты, но мы теперь понимаем что они не верны. На экзаменах мы получаем N возможностей демонстрации своей работы с изученными понятиями. Препод ставит долю выделенных на экзамен баллов в зависимост от m/N, где m - сколько раз мы продемострировали работу с понятием правильно. Т. е. есть градации у понимания, и, по ситуации, не всякая возможность использования понятия будет считаться пониманием для челоовека.>>435822>не обязательно даже в виде языкового представления - это может быть любое интуитивно-понятное представление, графическое или в виде схем с пояснениями, такой себе user-friendly интерфейс для конкретных задач. Язык это и есть набор сигналов, всё что ты перечислил это тоже сигналы и соответственно языки.
>>435858>Язык это и есть набор сигналов, всё что ты перечислил это тоже сигналы и соответственно языки.Сигналы, имеющие заданные значения, сигналы без значений не язык - понятное дело, значения сигналам задаются произвольно, но можно конечно задавать и произвольные сигналы по определённому значению, только вероятность неправильного понимания повышается в таком случае.
Интересно представлять текст в виде сети, связанных между собой понятий. Это дает возможность читать текст нелинейно, напрямую представляя себе контекст.https://infranodus.com/research/bias?walkthrough=force
>>433721С помощью прикладного анализа поведения обучают даже совсем запущенных аутистов так, что они даже могут пойти в обычную школу. Очень эффективно. И не только к аутистам это все. Те или иные методы прикладного анализа поведения используются везде и прекрасно работают.>>433739В Юго-Восточной Азии и некоторых государствах центральной Африки обладатели абсолютного слуха составляют значительную долю населения. В этих странах говорят на тональных языках, когда смысл слов меняется в зависимости от высоты звука при высказывании. Примеры таких языков — китайский, вьетнамский, многие нигеро-конголезские. Целые народы, с рождения говорящие на тональных языках, могут обладать абсолютным слухом[5].Среди профессиональных музыкантов процент носителей абсолютного слуха всюду выше, чем в среднем по населению. В Европе и США это примерно 10-15 %, в странах с тональными языками (например, в консерваториях Китая) — порядка 60-70 %[6][7]. Наиболее выдающиеся европейские композиторы и исполнители чаще всего имели абсолютный слух, в их числе В. А. Моцарт, Л. ван Бетховен, К. Сен-Санс, С. Т. Рихтер, М. Л. Ростропович. Однако и среди музыкантов этого уровня такой слух был не у всех: не обладали им, например, П. И. Чайковский, Р. Шуман.Особой категорией лиц, характеризующейся высокой распространённостью абсолютного слуха, являются слепые от рождения, психогенетически больные с синдромом Вильямса[8], а также люди с проявлениями аутизма[9].Так что, музыкальный слух можно развить.
Лол, оказывается в треде активно орудовал конструктух. Мне особенно интересно: конструктух и word2vec-дрочер - это случайно не сейм-персун? Давай, конструктух, сознавайся.
>>445496Если упрастить все, то на выходе/входе будут 3 взаимодействия(да/нет/пох), а из них производный градиент/контекст/звук, может иметь какие угодно формы, служащий лишь для подсветки дальнейшего каскада взаимодействий (своего рода похода с фанариком ночью в лесу)
Тест Тьюринга предъявляет требования только к внешнему поведению, но не к внутренней структуре интеллекта. Очень подробно интервьюируем человека, записываем пары вопрос-ответ в большую БД, прикручиваем распознавание голоса. Теперь эта система с высокой точностью имитирует исходного человека и проходит тест Тьюринга, но, очевидно, что это обычный слабый ИИ.
Все о чем я писал уже реализовано в проекте Open IE. Пользуйтесь.http://openie.allenai.org/results/?arg1=entity%3APhoton&justResults=false
два титана межсезонья>>449583>>449586абсорбируют контекст>>445651Вижу ни хватает моих тарак.., эээ рациональной динамики, хотел в тред про триз, но он кудата...Ну так уот почитал статью описывающая подобное на прикладном уровне.https://habr.com/post/414929/Есть подобные концепты, типо MindMaps/Sharepoint, но тока ни такие громоздкие, ввиде конструктора?Зы туда бы еще и нейросетку с полиморфоной моделью.
>>430355 (OP)А из этих сотен книг введение в аналитическую философию было последним, что ты читал? Ебать ты земля.
Когда я читаю, я пытаюсь войти в пространство текста. Контекст - это пространство, а понятия - точки в нем.
>>449691Очень может быть, что для человека контекст задается на отношениями между понятиями, а группой преобразований, как геометрия.
Контекст это в сторону обобщения, там достаточно размытая картинка получается, а частности конкретны, ну и множества градаций/иерархий между этим и тем.
>>449721Поддерживаю, спектр плывет, наскоко понял предикты контекст фиксируются на тригерах восприятия. Типо квантовой физики реагируют на квант, остальное на кота.
>>449721зы Добавлю чисто по гумонитарски от ПВО: Глядя на лошадиные морды и лица людей, на безбрежный живой поток, поднятый моей волей и мчащийся в никуда по багровой закатной степи, я часто думаю: Где контекст?
>>450227Ни факт, если взять измены Гегеля, в его логике основаной на ложных препосылках, вообще хуйня получается.
>>430355 (OP)Кста, а есть фак по нирване для олегофренов без седативов и лоботомии, или типо 5 минут и ты в нирване, я к тому что в том состоянии вроде происходит понимание контекста без интерпретации и искожений, напрямую как оно есть.
>>450677>в том состоянии вроде происходит понимание контекста без интерпретации и искожений, напрямую как оно есть.А после его прохождения всё понимание забывается?