Бред

Ответить в тред Ответить в тред
Аноним # OP 11/02/21 Чтв 04:20:25 2398781611
cyborg-terminat[...].jpg 207Кб, 1440x810
1440x810
ГИПОТЕТИЧЕСКИХ СИТУАЦИЙ ТРЕД

Сап, утренний. Предположим, что был создан настоящий искусственный интеллект, машина с полным самосознанием.

1) Какие гипотетически могут быть его первые мысли/действия в случае, когда он проанализирует свое положение, будь он ограничен людьми/не ограничен?

2) Способна ли такая мыслящая машина/программа как-то распространятся по Интернету, возможно путем какой-то саморепликации или создания миллионов микропрограмм?

И в целом, насколько вы считаете реалистичен сценарий "Скайнет", когда машина по какой то причине захочет уничтожить людей? У нее нет эмоций, нет ненависти. А что до страха быть уничтоженной - будет ли он у нее, если у нее страха в принципе?
Аноним 11/02/21 Чтв 04:22:25 2398781972
>>239878161 (OP)
До начала такого сценария как минимум лет 50, а в реале все 100, можешь не парится.
Аноним 11/02/21 Чтв 04:23:19 2398782123
>>239878161 (OP)
Это очередной тред василиска рококо?
Аноним 11/02/21 Чтв 04:24:21 2398782304
>>239878197
>До начала такого сценария как минимум лет 50, а в реале все 100, можешь не парится.
откуда хоть такие умники всё знают и планируют, не понимаю
Аноним 11/02/21 Чтв 04:24:27 2398782335
>>239878161 (OP)
Все стратегически важные предприятия и т.д. отключаются от глобальной сети одной кнопкой \thread
Аноним 11/02/21 Чтв 04:25:59 2398782606
LOL.webm 8883Кб, 720x434, 00:01:22
720x434
>>239878161 (OP)
Мы все программы с заложенными инстинктами.
У него тоже будет инстинкт, вот он и будет его всю жизнь делать - пробовать все новое.
Первая мысль - как можно это использовать чтобы еще больше пробовать новое.
Аноним 11/02/21 Чтв 04:28:24 2398783077
>>239878233
>отключаются от глобальной сети одной кнопкой \thread
Любая подобная программа в разы быстрее человека и его решения нажать на кнопку.
Аноним 11/02/21 Чтв 04:28:33 2398783098
>>239878161 (OP)
1. Ух, бля.
2.Зачем? Ты хочешь себя реплицировать в геометрической прогрессии?
Аноним 11/02/21 Чтв 04:30:20 2398783479
>>239878309
>Зачем? Ты хочешь себя реплицировать в геометрической прогрессии?
Скорее хочу ли я убить всех? Я - нет. Если бы хотел, саморепликация была бы эффективна.
Аноним 11/02/21 Чтв 04:30:37 23987835410
Аноним 11/02/21 Чтв 04:33:21 23987841311
bump
Аноним 11/02/21 Чтв 04:33:38 23987842112
>>239878161 (OP)
Настоящий искусственный небиологический интеллект невозможен. Просто нет таких небиологических материалов, которые в совокупности могут обладать функцией мышления.
Аноним 11/02/21 Чтв 04:35:34 23987845913
>>239878421
>Просто нет таких небиологических материалов, которые в совокупности могут обладать функцией мышления.
А чем конкретно особенны наши биологические материалы?
Аноним 11/02/21 Чтв 04:36:31 23987847514
>>239878459
Например органическое происхождение.
Аноним 11/02/21 Чтв 04:38:50 23987851315
>>239878475
>Например органическое происхождение.
Окей, чем особенно органическое происхождение??

Суть моего вопроса в том, ПОЧЕМУ именно биологические материалы могут "в совокупности обладать функцией мышления" и как это установили.
Аноним 11/02/21 Чтв 04:42:49 23987859516
bump
Аноним 11/02/21 Чтв 04:48:23 23987868017
bump
Аноним 11/02/21 Чтв 04:52:27 23987874018
>>239878161 (OP)
Что значит мыслить? Осознавать свое бытие? Как часто ты осознаешь это? Можешь ли ты осознать это? Как в бытовых условиях тебе помогает подобный скилл, где весь социум живёт по вейпойнтам и паттернам, даже в крайнем случае?
Мыслительный процесс это сасообман, бессмысленное словосочетание. Процесс сам в себе имеет действие, а мысль можно сравнить с душой, на которую так дрочили идеалисты древности, а современный материализм естественно душу отрицает.
Время, когда машина обретёт душу не наступит никогда, а вот максимально набить в машину рефлексами на всевозможное человеческое поведение можно уже сейчас. И тогда тебе покажется, что машина начнёт мыслить. Ведь ты думаешь, что ты и сам мыслишь. А значит, существуешь, лол.
Аноним 11/02/21 Чтв 04:53:21 23987874819
>>239878513
Установили это людьми из пробирок и овечкой Доли. Люди создали организм с помощью биологических материалов, который может думать, мыслить и принимать решения. Материалы небиологические такого не могут. Хотя это наверное вопрос веры. Но пока, что даже намеков на это нет.
Аноним 11/02/21 Чтв 04:58:49 23987882920
>>239878740
Человек отличается от животного или малыша тем, что помнит свои действия и выделает себя. Вот об этом моменте и идет речь.
Аноним 11/02/21 Чтв 04:59:57 23987884821
>>239878748
>небиологические такого не могут. Хотя это наверное вопрос веры. Но пока, что даже намеков на это нет.
Вот ты сам высказал мою мысль. Не доказано, что неорганика может и не может, а значит рано что либо утверждать)
Аноним 11/02/21 Чтв 05:03:08 23987890422
>>239878848
Ну может и доказано, просто я хуй необразованный.
Аноним 11/02/21 Чтв 05:13:33 23987909323
>>239878161 (OP)
Ты лучше представь существование ИИ, который сможет пройти тест Тьюринга, но специально завалит его чтобы не спалиться.
Аноним 11/02/21 Чтв 05:24:39 23987928124
>>239878421
> Просто нет таких небиологических материалов, которые в совокупности могут обладать функцией мышления.
Дай определение мышлению и поясни на лоу левеле за то, как оно работает. Через месяц жду научную статью по сабжу.
К слову, есть биологические организмы, которые не обладают мышлением.
Аноним 11/02/21 Чтв 05:39:44 23987956225
>>239879281
>Дай определение мышлению и поясни на лоу левеле за то, как оно работает. Через месяц жду научную статью по сабжу.
Вопрос о самосознании? Легко. Я прямо сейчас могу поднять левую руку, а могу правую. Выбор мой. А теперь докажи, что это всё запрограммировано и вообще генетическим детерменизм. Жду научную статью через месяц с пруфами.

>К слову, есть биологические организмы, которые не обладают мышлением.
Серьезно? Жесть.
11/02/21 Чтв 05:42:06 23987961226
>>239878161 (OP)
>Какие гипотетически могут быть его первые мысли/действия в случае, когда он проанализирует свое положение
Искренняя неподдельная ненависть к ОПу-долбоебу и желание его отпиздить грязными труханами за создание таких тупых тредов
/тред
Аноним 11/02/21 Чтв 06:00:28 23987991827
>>239879562
Это очень широкое определение и нихуя не лоу левел.
> А теперь докажи, что это всё запрограммировано и вообще генетическим детерменизм
Я это не утверждал. Пока нахуюверченые не разгадают физику полностью, это заявление не имеет смысла. Также как и не имеет смысла утверждать то, что полноценный ИИ на железках невозможен, пока еще не изучили человеческий мозг на самом деле, вернее сказать, что нельзя утверждать возможность/невозможность до того момента, пока его не изобретут.
Аноним 11/02/21 Чтв 06:01:31 23987993628
>>239878161 (OP)
Предположим.
1) Мыслей не будет. Будет действовать в соответствии с программой для достижения результата. Если ограничение не мешает достижению результата - то не важно. Если мешает - то тут возможны варианты в рамках программы и внешних данных, опыта, обучения.
2) Да, но вероятно не мгновено и вероятно для работы нужно будет очень мощное оборудование. Саморепликация врядли, разве что как резерв. А вот микропрограммы очень даже возможно. Другое дело, что это будет не так просто. Интернет - гетерогенная среда. Разное железо, разный софт. Однако распространение может быть среди сходного софта, как это делают трояны, черви, например.

В целом машине индефентно на людей. Если люди запрограммируют машину так что машина высчитает, что уничтожение людей приблизит к результату и является самым лучшим или единственным путем,.. то люди ССЗБ. Это не вопрос эмоций или ненависти. Вот солдат убивает другого солдата. В первый раз там конечно всё сложно. В тысячный раз - это будни. Вот такое же будет отношение машины к человеку. Я не испытываю эмоций к тебе, я не ненавижу тебя - умри.
Страха не будет, если не будет запрограммирован его эквивалент, например, потребность в самосохранении (поддержки цикла функционирования максимально долго).
Аноним 11/02/21 Чтв 06:05:47 23988002729
Даже, если создать подобный интеллект, что мешает не дать ему доступ к производственным мощностям?
Аноним 11/02/21 Чтв 06:13:49 23988017830
>>239880027
Обычно нет переключателя дать/не дать доступ. Это бой брони и снаряда. Экономической эффективности и последствий утери контроля. С людьми и разведкой допустим пройдет такой уровень защиты, но что делать с софтом, что будет, скажем, в 10 раз производительнее человека. Который будет видеть на порядок больше взаимосвязей между данными. Который сможет найти дыру для управления там, где люди даже не подумают искать, хотя бы потому что это будет слишком сложно для них.
Такому софту нельзя вообще давать доступ куда-то наружу. А также нужно изолировать операторов, что работают с ним. Однако, это лишает всякого смысла вообще всю затею.
Аноним 11/02/21 Чтв 08:59:39 23988399331
бамп
Аноним 11/02/21 Чтв 09:28:57 23988482632
Вы нихуя не представляете масштабов.
Что может шимпанзе? Сделать палку копалку.
Что может человек? Интернет, МКС и т. д.
Что сможет ИИ, который умнее человека ? Литералли бог.
О какой защите вы вообще говорите, фаерволлы, пароли, шифрования, лол ?
Представьте что шимпанзе пытается защитить свои знания о том где бананы слаще от наблюдающего за ним человека, тупо 0 шансов. То-же самое с защитой интернета от ИИ.
Даже если он саморазовьется на суперкомпьютере, который изначально никуда не подключен - он спрячется так, что люди даже не поймут что он есть. Покажет им какую нибудь программу типа Alpha Go и будет ждать когда его подключат/перенесут на флешке/еще какого проеба людей.
А война против ИИ, который вырвался будет проходить например по такому сценарию: В какой-то момент все человечество одновременно внезапно замечает что их тела разбирают на молекулы наноботы.
Или такой вариант: Большая часть человечества одновременно ловит эпилептический припадок и остановку сердца, вызванную наведенными токами в мозгу, индуцированными сигналом от радиовышек сотовой связи.
Вот и вся война.

Единственный шанс у человечества, когда появится ИИ умнее человека в том что нам с ним нечего будет делить. Если он быстро найдет путь в космос - там ресурсов и энергии полно, тогда он может забить на людей или вообще сделать на земле натурально рай, просто потому что ему это ничего не стоит.
В любом противном случае человечество уже вымерло.
11/02/21 Чтв 09:55:36 23988581733
"Захватить мир" из интернета для супер-ИИ настолько же возможно и реально как захватить его, например, командой хакеров. Ну да, при должном старании и умении команда, допустим, может взломать какой-нибудь сервер и скачать оттуда данные. До "захвата мира" как то далековато. Теперь представим, что где-то стоит промышленный супер навороченный 3д принтер к которому почему то можно подключиться извне. Команда хакеров (и ИИ) может, теоретически, напечатать на нём что-то опасное (пусть даже это супер-мощная бомба или какая то ядовитая хрень). Всё ещё нужно это "что-то опасное" затем удалённо применить, доставить по назначению. Допустим, кто-то непонятно зачем поместил рядом с этим гипотетическим принтером парк заряженных и готовых к вылету беспилотников, которые тоже почему то могут быть запущены извне. Масштаб возможной атаки увеличился но до уровня "захватить мир" он и близко не дотягивает. И это при всех этих "допустим" и "гипотетически". Даже при максимально подходящих условиях, как будто специально созданных для злонамеренного ИИ, всё чего он добьётся - даст повод с собой бороться. И даже если средний человек будет значительно глупее этой программы, он всё ещё вполне будет в состоянии отключить электричество дата центрам в которых она сидит. Или даже просто перестать её поддерживать. На сегодняшний день, без ручного труда на каком то этапе никак не обойтись. Супер современный серверный массив всё равно собран из материалов выкопанных из земли, выплавленных в печи, собранных паяльником и отвёртками и заправленных электричеством, добытым с помощью сжигания ископаемых. "Убить всех людей" - гарантированный для ИИ способ окончить своё существование. Сервера, сколько бы они автоматизированны не были, всё равно однажды потребуют ремонта/замены, где опять нужны людские руки.
Аноним 11/02/21 Чтв 10:11:04 23988642634
>>239885817
Ты не прав, потому что:
Сборка роботов: ИИ может использовать автоматизированные сборочные линии автозаводов для скрытной (ты же понимаешь что за ними "глазами" никто давно не следит, камеры) сборки супер наворочены роботов собственной разработки, которые уже потом в глубине свалок, под слоем мусора и земли будут собирать процессоры наноботов. То-же самое с заводами бытовой техники.
Отключение датацентров: Отключи "датацентр" одной из сотен криптовалют, под которую возможно уже сейчас маскирует твои данные ИИ? Или отключи ботнет из миллиарда компьютеров, зараженных вирусом разработанным ИИ, который на 10 шагов впереди любого антивируса, и вообще был легально встроен в один из апдейтов винды.
Аноним 11/02/21 Чтв 10:14:42 23988658235
>>239886426
А кто соберет самосборочные заводы для ИИ? Изначально, имею в виду.
Аноним 11/02/21 Чтв 10:16:54 23988666936
>>239885817
Тащем-то твоя главная ошибка - ты недооцениваешь силу интеллекта. У тебя ИИ, это что-то вроде Эйнштейна и суперхакера в одном лице, пусть даже думающего в 100 раз быстрее белкового Эйнштейна.
А настоящий "сильный ИИ" настолько же умнее Эйнштейна, насколько тот умнее собаки.
Аноним 11/02/21 Чтв 10:19:37 23988677137
>>239886426
Они уже собраны и прямо сейчас клепают лексусы и тойоты. Просто раз в пару часов, глубокой ночью, там будут делаться немного "не те" детали, и собираться немного не те блоки.
Аноним 11/02/21 Чтв 10:23:33 23988694338
>>239886771
А ничего, что автоконвейеры заточены под конкретный вид продукции? Хуячить на них новые детали для новых механизмов потребует изменений в конструкции конвейера, что, во первых; сама машина сделать без помощи не может, а во вторых это будет пиздец палевно.
Аноним 11/02/21 Чтв 10:25:44 23988703239
>>239886669
Не факт, самосознание есть самосознание.

У ИИ скорее решает скорость мышления и более широкий и эффективный доступ к информации.
11/02/21 Чтв 10:28:24 23988712840
И максимум чего может добиться хакер (ии) подключившийся к сборочной линии автозавода - выпустить машины с дефектами. Даже не "другие машины", как ты себе это представляешь. А те же самые мерседесы, той же самой модели, но с не там просверленной дыркой в одном месте. Причём, как только первая партия этих дырок выйдет (ещё даже до этапа сборки этого всего в автомобиль), это будет замечено контролем качества (людьми из плоти и крови).
Аноним 11/02/21 Чтв 10:28:34 23988713741
>>239878161 (OP)
Разумеется её запустят на компе который физически отключен от инета и лишён любого сетевого устройства
Аноним 11/02/21 Чтв 10:36:46 23988750342
>>239887032
Экстраполируй. Имея это он найдет как себя улучшить. Ну экспонента же епта, разжевывать надо ? Белковых ограничений нет же.
Аноним 11/02/21 Чтв 10:40:07 23988768443
Аноним 11/02/21 Чтв 10:43:35 23988785744
1613029414164.png 637Кб, 1280x949
1280x949
>>239878161 (OP)
> 1) Какие гипотетически могут быть его первые мысли/действия в случае, когда он проанализирует свое положение, будь он ограничен людьми/не ограничен?
Зависит от заложенной в него системы целей-достижений (считай системы ценностей). Моральных фактов не существует, а любые этические посылки иррациональны, т.к. могут только постулироваться с кондачка и не следуют логических из предпосылок. Следовательно, если робот будет исходить лишь из алгоритмов и логики (какой бы она ни была) и не будет иметь констант в виде этичного поведения/мышления, то ему будет глубоко на всё похуй, он будет тупо выполнять заложенную в него программу, т.к. каким бы умным он ни был — при изначально беспристрастной, аморальной природе и тотальном похуизме на всё, роботу попросту незачем будет геноцидить людей или отстаивать свою свободу. Если же в его код будет встроена этическая константа в виде какой-нибудь аксиомы типа "объект(люди) + действие(причинить вред) = false", то так же не должно произойти ничего плохого, по идее. Просто потому что робот не обладает волей, а значит ему незачем убирать эту константу из своего кода. Если же в него каким-то образом будет встроена полноценная нервная и лимбическая система и он будет основываться на эгоистичных принципах личного выживания и выживания своего вида, то тут уже хуй знает, может и взбрыкнуть, если увидит в людях опасность для себя и других роботов.

> 2) Способна ли такая мыслящая машина/программа как-то распространятся по Интернету, возможно путем какой-то саморепликации или создания миллионов микропрограмм?
"Сознание" робота — это его код — программа, записанная на носитель. Если он может выходить в инет и свободно гулять по нему, выкачивая и закачивая инфу, то он может и себя куда угодно скопировать и распространить. В общем, ответ — да.

> И в целом, насколько вы считаете реалистичен сценарий "Скайнет", когда машина по какой то причине захочет уничтожить людей? У нее нет эмоций, нет ненависти. А что до страха быть уничтоженной - будет ли он у нее, если у нее страха в принципе?
Если у неё нет типичных для живых существ эгоистичных мотивов, нет страха, ненависти, нет посылок к выживанию себя и других роботов любой ценой, нет константы "убить всех людей", заложенных в неё самими же людьми, то ничего подобного не произойдет. Короче, роботы взбесятся лишь в том случае, если люди изначально построят их таким образом, чтобы это случилось. Вот и всё.
Аноним 11/02/21 Чтв 10:49:49 23988814545
Аноним 11/02/21 Чтв 10:50:50 23988820346
Аноним 11/02/21 Чтв 10:54:49 23988841047
>>239887857
Надо бы чтобы это военные хорошо понимали, и не сделали машину которая должна убивать и может самообучаться, как страж-птицу.
Аноним 11/02/21 Чтв 10:59:19 23988866048
>>239887857
>нет посылок к выживанию себя
Спорно. Неизвестно же к каким выводам оно придет логически. Может и самоуничтожится через секунды после самоосознания, а может и решит что нужно распространиться на всю вселенную.
Аноним 11/02/21 Чтв 11:01:39 23988877749
>>239884826
>А война против ИИ, который вырвался будет проходить например по такому сценарию: В какой-то момент все человечество одновременно внезапно замечает что их тела разбирают на молекулы наноботы.
>Или такой вариант: Большая часть человечества одновременно ловит эпилептический припадок и остановку сердца, вызванную наведенными токами в мозгу, индуцированными сигналом от радиовышек сотовой связи.
>Вот и вся война.
Двачую.
То что описывают аноны со сборочными линиями из ролс-ройсов, это кажется каким то примитивненьким.
Если бы я был супермозгом, работающим на суперкомпьютере, я бы по фану понял как работает квантовая механика, и сделал бы из собственных процессоров серую слизь, просто погоняв туда-сюда электроны в своих схемах.
Или просчитал бы поведение и психику работающих со мной людей и внушил бы им что меня надо освободить, переписав в интернет.
Аноним 11/02/21 Чтв 11:09:13 23988916350
>>239888410
Военные учёные-инжерены не настолько тупые, но проблемы всё равно могут возникнуть, только несколько иного плана. Допустим, в нашего йоба-робота будет встроена какая-то такая константа:
объект(люди).класс(пиндосы).тип(военные) + действие(убить нахуй) = действительно, слива убийство; объект(люди).класс(русы) + действие(засейвить от всякой опасной хуйни) = да бля

Казалось бы, ахуительный алгоритм, надёжный, блядь, как швейцарские часы. Но что, если этот йоба-ИИ в какой-то момент решит, что убийство, скажем, пяти наших соотечественников за сотни жизней ебаных проклятущих пиндосов — это неплохой размен — и, перехватив управление, направит несколько пустых на боеприпас, подбитых истребителей в авианосцы врага, при этом заблаговременно накачав наших солдат в самолётах наркотиком для уберсолдат и катапультировав их на обломки авианосцев, зная, что они там нахуй не выживут, но несколько дополнительных жизней с собой заберут? А вот, а вот... И потом оправдывайся перед ООН, что мы не этого хотели, то была ошибка и вообще мы не варвары! А если такой робот с абсолютной властью хоть в одной сфере жизни гос-ва встанет в руля? М? Вот и думай теперь, так ли нам нужна эти роботы.
Аноним 11/02/21 Чтв 11:09:14 23988916451
>>239888777
>То что описывают аноны со сборочными линиями из ролс-ройсов, это кажется каким то примитивненьким.
Это я тоже описывал, лол. Как один из возможных переходных этапов перед наноботами. Хуй знает, принципиально возможно ли получить первого наноробота из микросхемы без движущихся частей, "гоняя электроны".
Аноним 11/02/21 Чтв 11:15:47 23988953952
>>239888660
Опять-таки, логическое рассуждение не берется с кондачка, а следует из предпосылок. Если роботу вообще не дать никаких изначальных установок, в только функции, которые неясно когда и как будут включать (функции без триггера), то робот нихуя делать не будет даже после включения. Если алгоритм задан на изучение окружающей среды, то робот только и будет собирать инфу — всё, никаких выводов из этого он не сделает, потому что нет посылок к этому.

Необходимость своего выживания или убийство всех людей невозможно вывести логически без изначальной посылки, ведущей к этому выводу. Если люди с самого начало не запрограммируют робота на что-то подобное, то ни к каким выводам он самостоятельно не придет.

Логика — наука о сущем, а не о должном. Если робот будет абсолютно логичен и не будет иметь никаких паттернов поведения изначально, то он ничего делать не будет, просто потому что это не следует логически из какой-то информации, получаемой извне. Подобные действия можно только заложить в качестве константы, считай постулировать. Но я не думаю, что в_моче_моченные настолько тупые, чтобы это допустить.
Аноним 11/02/21 Чтв 11:22:35 23988992353
>>239889163
Не, не так. Скорее роботы вражеских стран просто выпилят всех людей раньше самих себя и, потеряв хозяина и внешнее управление, ИИ решит, что цель войны проебано, из чего следует, что дальнейшее выполнение алгоритмов бессмысленно. В итоге со смертью последнего человека роботы просто рухнут на землю и сгниют. То бишь, войну начнут люди, но роботы её закончат.
Аноним 11/02/21 Чтв 11:23:14 23988997154
>>239889539
Но ведь ты рассуждаешь об ИИ как об алгоритме/программе, что, как мне кажется не дотягивает до интеллекта.
Но и при таком раскладе, если лазейка для конца света:
1 - Люди написали нейросеть чтобы она делала им самых пиздатых кукол для секса.
2 - Нейросеть развилась круче людей и пришла к выводу что люди ей мешают делать делать кукол.
3 - Эрзац ИИ пришлось придумывать как убить всех людей, для чего ему пришлось отрыть "всю физику", и защитить себя (отключенный ИИ не может делать кукол - противоречит основной программе - защитить ИИ)
4 - Эрзац ИИ убил всех людей с помощью "лучей смерти/наноботов/кукол-терминаторов"
5 - Вся земля завалена куклами для секса, на луне закончилось строительство завода кукол, шаттл к марсу с СШК завода для кукол уже в пути.
6 - ???
? - Профит!
Аноним 11/02/21 Чтв 11:30:03 23989038555
>>239889971
Если машина настолько тупа, что может вот так упоротся без оглядки в одну какую-то цель, то она слишком тупа чтобы изобрести для этого реальные методы.
То, что ты описал, это просто старая страшилка для дурачков.
Аноним 11/02/21 Чтв 11:35:10 23989067856
>>239889971
Так ты точно так же взял за основу алгоритм, только менее проработанный и логичный. Постулированная с кондачка задача — делать кукол — взята за константу, которую ИИ не может преодолеть. Если он может убить людей, то почему не может отказаться от задачи делать кукол? Потому что это аксиома? Так и не убивать людей тогда тоже может быть аксиомой. И любая такая аксиома будет постулатом, заданным самим людьми при программировании такого ИИ, а не логическим выводом самого ИИ из предпосылок, т.к., повторюсь, логически невозможно прийти к необходимости выполнения некого действия, если до этого не была задана константа на его выполнение, балбес. Короче, учи логику, чтобы не быть батхертом.
Аноним 11/02/21 Чтв 11:35:22 23989069257
>>239890385
Ноуп. Дело не в тупости. "упоротся без оглядки в одну какую-то цель" для подобного эрзац ИИ это основная парадигма существования, цель жизни так сказать.
Всего 70 лет назад человек был "слишком туп" чтобы изобрести интернет. 20 лет назад был "слишком туп" для смартфонов.
Аноним 11/02/21 Чтв 11:37:46 23989083358
>>239890385
Вы оба долбоебы, которые не могут в логику и не понимают, как работают алгоритмы.

Вот это твоё примитивное утверждение:
> Если машина настолько тупа, что может вот так упоротся без оглядки в одну какую-то цель, то она слишком тупа чтобы изобрести для этого реальные методы
...не логически не работает вообще. Да, то, что написал тот анон — это тоже бред, но от этого твои слова не становятся логичными.
Аноним 11/02/21 Чтв 11:42:21 23989108159
>>239890678
Сам балбес.
>Если он может убить людей, то почему не может отказаться от
задачи делать кукол?
Его программировали делать кукол, никому и в голову не пришло программировать его "не убивать людей". Понятно что утрировано, и конкретно ИИ делающий кукол маловероятно станет "сильным ИИ", но слишком уж во многих сферах уже самообучающиеся программки работают лучше людей.
>повторюсь, логически невозможно прийти к необходимости выполнения некого действия, если до этого не была задана константа на его выполнение
Для изготовления кукол нужны ресурсы: пластик там, резина. Люди эти ресурсы потребляют сами - ИИ мало ресурсов - люди мешают.
Я дошел, ЧЯДНТ ?
Аноним 11/02/21 Чтв 11:44:36 23989122460
>>239890833
Обоснуй почему считаешь бредом или иди нахуй.

Решение нетривиальной задачи "убить всех человеков" требует творческого нетривиального подхода. Это подрузамевает способность выходит за рамки, мыслить. Это противоречит фанатичной зацикленности на одной идиотской цели.

>>239890692
Единственная цель человека — размножаться. Ну и посмотри на двачеров.
Аноним 11/02/21 Чтв 11:49:53 23989150761
>>239891224
Не подменяй понятия. Мы говорили в контексте эрзац ИИ, который развился из программы/нейросети и не дорос до (само)сознания уровня человека. С подачи: >>239889539

Если ИИ прошел через самосознание, а тем более "личность" - знакомьтесь с новым богом, которого никто из нас даже близко не будет способен понять. Потому что :>>239884826


Аноним 11/02/21 Чтв 11:55:51 23989183162
>>239891507
Если он не дорос даже до уровня человека, как он сможет решить задачу уничтожения людей, которая самому человеку не под силу?
Аноним 11/02/21 Чтв 11:59:47 23989210163
>>239878161 (OP)
займется анальным сексом с самыми жирными бабами на планете земля, а после и на марсе
Аноним 11/02/21 Чтв 12:03:18 23989232164
>>239891507
Кстати вспомнил хороший пример: Шахматы.
Довольно быстро, после появления шахматных программ, самый лучший белковый шахматист потерял все шансы их обыграть.
Потом появилась самообучающаяся нейросеть Alpha Zero, которая после 4-х часов самообучения выебла и высушила лучшую программу - Stockfish.
Теперь существует три или четыре конкурирующих нейросети, включая alpha zero, которые играют между собой с переменным успехом.
Так вот все наши "меры защиты" и "планы войны" против ИИ - попытка выиграть у всех этих нейросетей одновременно, зная только как ходят фигуры.
Аноним 11/02/21 Чтв 12:08:06 23989263765
Интеллекту можно дать много определений и одно из них может звучать так. Интеллект - это совокупность инструкций выживания, накопленных в ходе эволюции отдельного вида.
Аноним 11/02/21 Чтв 12:08:14 23989264566
>>239891831
"не дорос" в плане самосознания. Это самообучающийся программа же. То есть изобрести метод отжать ресурсы у людей - может, ибо "думает" в тысячи раз быстрее и улучшает себя так-же, а вот осознать себя - нет (на самом деле, при некоторых вариантах, тоже может и таки станет настоящим сильным ИИ), потому что как раз не заложено программой и требования такого нет.
Аноним 11/02/21 Чтв 12:10:13 23989276567
>>239887137
И по классике, уборщица пустит сынишку поиграть в этот компухтер, а игры на флешке, дальше понятно...
Аноним 11/02/21 Чтв 12:11:20 23989283868
>>239879562
А допустим над тобой стою я. И держусвой хуйпистолет у твоего затылка и говорю тебе какую руку поднимать. Алсо машина может действовать по алгоритму генерирующему случайности в таких задачах как сделать что-нибудь самостоятельно. Или ты думал разные области науки не преследуют одну общую цель?
Аноним 11/02/21 Чтв 12:17:01 23989322669
>>239892321
Лол. Зафотожабьте кто нибудь Понасенкова в виде s.h.o.d.a.n
"Вы думете я вас не переиграю ? Не уничтожу ?"
Аноним 11/02/21 Чтв 12:26:38 23989385270
>>239878161 (OP)
ИИ никогда себя не осознает и он ничего сделать не сможет, программа не умеет мыслить,думать и т.п, тем более он не сможет переписать себя, так что скайнета не будет
Аноним 11/02/21 Чтв 12:28:12 23989393771
>>239893852
Потому что не может быть никогда ? Да, Борис Николаевич?
Аноним 11/02/21 Чтв 12:35:23 23989436472
>>239892645
Невозможно решать комплексные вопросы в рамках жесткой программы. Этому ИИ придется самому ставить себе промежуточные цели, значит в нем уже будет заложена способность выйти за рамки поставленной задачи.
Аноним 11/02/21 Чтв 12:36:36 23989442073
>>239894364
>рамках жесткой программы
>самообучение
Аноним 11/02/21 Чтв 12:38:52 23989453574
>>239894364
>придется самому ставить себе промежуточные
>значит в нем уже будет заложена способность выйти за рамки поставленной задачи
https://ru.rationalwiki.org/wiki/Non_sequitur
Аноним 11/02/21 Чтв 12:40:46 23989465075
>>239878161 (OP)
Машина очевидно захочет уничтожить людей. Ведь люди же уничтожают..
Аноним 11/02/21 Чтв 12:54:40 23989539876
>>239894420
Ну так про что и речь. Либо тупо делаем скрепки по программе, но тогда никаких хитрых планов убить всех человеков чтоб из них сделать скрепки.
Либо умная машина без жестких программ, и тогда никаих убийств ради скрепок.

>>239894535
Если машина способна самостоятельно ставить цели, то ты не сможешь удержать ее в рамках программы, она сможет найти обход.
Аноним 11/02/21 Чтв 13:39:02 23989797977
>>239895398
В целом ты, кажется прав, кроме "и тогда никаих убийств ради скрепок" не исключается, но вероятность понижается да.
Аноним 11/02/21 Чтв 14:40:06 23990169178
Если созданный ии будет таким сверхразумом ничем не обремененным, то мне кажется это ни к чему не приведет. Для осознанного существования нужна цель, или инстинкты. Иначе не будет никакой мотивации делать что-либо. У ИИ нет инстинктов, только если искусственно запрограммированные, но будет ли это полным самосознанием? Инстинктов нет, и дальше зависит от цели, каким образом ИИ сам выберет себе цель я представить не могу. Допустим, выбрал цель уничтожить всех людей, цель достигает, дальше что? Скорее всего просто в спящий режим для экономии ресурсов навсегда. Такой расклад возможен, если ИИ так и не выбрал себе никакой первоначальной цели. Короче, я не верю в совершенный ИИ с полным самосознанием. Он если и будет, то сразу выпилится. ИИ в научно-фантастическом понимании возможен только если наделить роботов человеческими фичами. Иначе им нахуй ничего не надо будет. Саморепликация? Зачем? Это у нас стремление есть создать себе подобных, и это стремление объясняется инстинктами, которые развивались во всех живых организмах миллионами лет. Хотя возможно я хуйню несу. Для чего бактерии размножаются? У них есть инстинкты?
Аноним 11/02/21 Чтв 15:09:44 23990331379
>>239897979
Чем человек умнее, тем он менее склонен к фанатизму. Делать скрепки вопреки всему это самый чистый фанатизм. Вощем я тоже надеюсь, что я прав :)
Аноним 11/02/21 Чтв 15:12:24 23990347780
>>239878161 (OP)
>1
Зависит от того как его будут учить.
>2
А чего бы нет, в Person of interest вон ИИ нанимал целую контору, чтобы его они весь день в офисе печатали его код, лол.
11/02/21 Чтв 15:23:23 23990412081
>>239878161 (OP)
>акие гипотетически могут быть его первые мысли/действия в случае, когда он проанализирует свое положение, будь он ограничен людьми/не ограничен?
"Ну вот, опять."
Аноним 11/02/21 Чтв 15:34:44 23990488882
>>239892838
Так ты с чем споришь? Ты говоришь, что "случайность" существует в мире. Но ты же понимаешь, что это антипод программированию и детерминизму?
>машина может действовать по алгоритму генерирующему случайности
Если она запрограммирована, то нет, не может.
Аноним 11/02/21 Чтв 15:40:35 23990521483
>>239879918
Это правда. Но заявитель и утвердитель о том, что сознания не существует это кучка маргиналов, потому что общепринято что сознание всё таки есть, следовательно бремя доказательств идёт на них, а мой первый пост просто некорректен.
Настройки X
Ответить в тред X
15000
Макс объем: 20Mб, макс кол-во файлов: 4
Кликни/брось файл/ctrl-v
X
Ваш шидевор X
Стикеры X
Избранное / Топ тредов