Сап, утренний. Предположим, что был создан настоящий искусственный интеллект, машина с полным самосознанием.
1) Какие гипотетически могут быть его первые мысли/действия в случае, когда он проанализирует свое положение, будь он ограничен людьми/не ограничен?
2) Способна ли такая мыслящая машина/программа как-то распространятся по Интернету, возможно путем какой-то саморепликации или создания миллионов микропрограмм?
И в целом, насколько вы считаете реалистичен сценарий "Скайнет", когда машина по какой то причине захочет уничтожить людей? У нее нет эмоций, нет ненависти. А что до страха быть уничтоженной - будет ли он у нее, если у нее страха в принципе?
До начала такого сценария как минимум лет 50, а в реале все 100, можешь не парится.
Это очередной тред василиска рококо?
>До начала такого сценария как минимум лет 50, а в реале все 100, можешь не парится.
откуда хоть такие умники всё знают и планируют, не понимаю
Все стратегически важные предприятия и т.д. отключаются от глобальной сети одной кнопкой \thread
Мы все программы с заложенными инстинктами.
У него тоже будет инстинкт, вот он и будет его всю жизнь делать - пробовать все новое.
Первая мысль - как можно это использовать чтобы еще больше пробовать новое.
>отключаются от глобальной сети одной кнопкой \thread
Любая подобная программа в разы быстрее человека и его решения нажать на кнопку.
1. Ух, бля.
2.Зачем? Ты хочешь себя реплицировать в геометрической прогрессии?
>Зачем? Ты хочешь себя реплицировать в геометрической прогрессии?
Скорее хочу ли я убить всех? Я - нет. Если бы хотел, саморепликация была бы эффективна.
F I R E W A L L
I
R
E
W
A
L
L
Настоящий искусственный небиологический интеллект невозможен. Просто нет таких небиологических материалов, которые в совокупности могут обладать функцией мышления.
>Просто нет таких небиологических материалов, которые в совокупности могут обладать функцией мышления.
А чем конкретно особенны наши биологические материалы?
Например органическое происхождение.
>Например органическое происхождение.
Окей, чем особенно органическое происхождение??
Суть моего вопроса в том, ПОЧЕМУ именно биологические материалы могут "в совокупности обладать функцией мышления" и как это установили.
Что значит мыслить? Осознавать свое бытие? Как часто ты осознаешь это? Можешь ли ты осознать это? Как в бытовых условиях тебе помогает подобный скилл, где весь социум живёт по вейпойнтам и паттернам, даже в крайнем случае?
Мыслительный процесс это сасообман, бессмысленное словосочетание. Процесс сам в себе имеет действие, а мысль можно сравнить с душой, на которую так дрочили идеалисты древности, а современный материализм естественно душу отрицает.
Время, когда машина обретёт душу не наступит никогда, а вот максимально набить в машину рефлексами на всевозможное человеческое поведение можно уже сейчас. И тогда тебе покажется, что машина начнёт мыслить. Ведь ты думаешь, что ты и сам мыслишь. А значит, существуешь, лол.
Установили это людьми из пробирок и овечкой Доли. Люди создали организм с помощью биологических материалов, который может думать, мыслить и принимать решения. Материалы небиологические такого не могут. Хотя это наверное вопрос веры. Но пока, что даже намеков на это нет.
Человек отличается от животного или малыша тем, что помнит свои действия и выделает себя. Вот об этом моменте и идет речь.
>небиологические такого не могут. Хотя это наверное вопрос веры. Но пока, что даже намеков на это нет.
Вот ты сам высказал мою мысль. Не доказано, что неорганика может и не может, а значит рано что либо утверждать)
Ну может и доказано, просто я хуй необразованный.
Ты лучше представь существование ИИ, который сможет пройти тест Тьюринга, но специально завалит его чтобы не спалиться.
> Просто нет таких небиологических материалов, которые в совокупности могут обладать функцией мышления.
Дай определение мышлению и поясни на лоу левеле за то, как оно работает. Через месяц жду научную статью по сабжу.
К слову, есть биологические организмы, которые не обладают мышлением.
>Дай определение мышлению и поясни на лоу левеле за то, как оно работает. Через месяц жду научную статью по сабжу.
Вопрос о самосознании? Легко. Я прямо сейчас могу поднять левую руку, а могу правую. Выбор мой. А теперь докажи, что это всё запрограммировано и вообще генетическим детерменизм. Жду научную статью через месяц с пруфами.
>К слову, есть биологические организмы, которые не обладают мышлением.
Серьезно? Жесть.
>Какие гипотетически могут быть его первые мысли/действия в случае, когда он проанализирует свое положение
Искренняя неподдельная ненависть к ОПу-долбоебу и желание его отпиздить грязными труханами за создание таких тупых тредов
/тред
Это очень широкое определение и нихуя не лоу левел.
> А теперь докажи, что это всё запрограммировано и вообще генетическим детерменизм
Я это не утверждал. Пока нахуюверченые не разгадают физику полностью, это заявление не имеет смысла. Также как и не имеет смысла утверждать то, что полноценный ИИ на железках невозможен, пока еще не изучили человеческий мозг на самом деле, вернее сказать, что нельзя утверждать возможность/невозможность до того момента, пока его не изобретут.
Предположим.
1) Мыслей не будет. Будет действовать в соответствии с программой для достижения результата. Если ограничение не мешает достижению результата - то не важно. Если мешает - то тут возможны варианты в рамках программы и внешних данных, опыта, обучения.
2) Да, но вероятно не мгновено и вероятно для работы нужно будет очень мощное оборудование. Саморепликация врядли, разве что как резерв. А вот микропрограммы очень даже возможно. Другое дело, что это будет не так просто. Интернет - гетерогенная среда. Разное железо, разный софт. Однако распространение может быть среди сходного софта, как это делают трояны, черви, например.
В целом машине индефентно на людей. Если люди запрограммируют машину так что машина высчитает, что уничтожение людей приблизит к результату и является самым лучшим или единственным путем,.. то люди ССЗБ. Это не вопрос эмоций или ненависти. Вот солдат убивает другого солдата. В первый раз там конечно всё сложно. В тысячный раз - это будни. Вот такое же будет отношение машины к человеку. Я не испытываю эмоций к тебе, я не ненавижу тебя - умри.
Страха не будет, если не будет запрограммирован его эквивалент, например, потребность в самосохранении (поддержки цикла функционирования максимально долго).
Обычно нет переключателя дать/не дать доступ. Это бой брони и снаряда. Экономической эффективности и последствий утери контроля. С людьми и разведкой допустим пройдет такой уровень защиты, но что делать с софтом, что будет, скажем, в 10 раз производительнее человека. Который будет видеть на порядок больше взаимосвязей между данными. Который сможет найти дыру для управления там, где люди даже не подумают искать, хотя бы потому что это будет слишком сложно для них.
Такому софту нельзя вообще давать доступ куда-то наружу. А также нужно изолировать операторов, что работают с ним. Однако, это лишает всякого смысла вообще всю затею.
Что может шимпанзе? Сделать палку копалку.
Что может человек? Интернет, МКС и т. д.
Что сможет ИИ, который умнее человека ? Литералли бог.
О какой защите вы вообще говорите, фаерволлы, пароли, шифрования, лол ?
Представьте что шимпанзе пытается защитить свои знания о том где бананы слаще от наблюдающего за ним человека, тупо 0 шансов. То-же самое с защитой интернета от ИИ.
Даже если он саморазовьется на суперкомпьютере, который изначально никуда не подключен - он спрячется так, что люди даже не поймут что он есть. Покажет им какую нибудь программу типа Alpha Go и будет ждать когда его подключат/перенесут на флешке/еще какого проеба людей.
А война против ИИ, который вырвался будет проходить например по такому сценарию: В какой-то момент все человечество одновременно внезапно замечает что их тела разбирают на молекулы наноботы.
Или такой вариант: Большая часть человечества одновременно ловит эпилептический припадок и остановку сердца, вызванную наведенными токами в мозгу, индуцированными сигналом от радиовышек сотовой связи.
Вот и вся война.
Единственный шанс у человечества, когда появится ИИ умнее человека в том что нам с ним нечего будет делить. Если он быстро найдет путь в космос - там ресурсов и энергии полно, тогда он может забить на людей или вообще сделать на земле натурально рай, просто потому что ему это ничего не стоит.
В любом противном случае человечество уже вымерло.
Ты не прав, потому что:
Сборка роботов: ИИ может использовать автоматизированные сборочные линии автозаводов для скрытной (ты же понимаешь что за ними "глазами" никто давно не следит, камеры) сборки супер наворочены роботов собственной разработки, которые уже потом в глубине свалок, под слоем мусора и земли будут собирать процессоры наноботов. То-же самое с заводами бытовой техники.
Отключение датацентров: Отключи "датацентр" одной из сотен криптовалют, под которую возможно уже сейчас маскирует твои данные ИИ? Или отключи ботнет из миллиарда компьютеров, зараженных вирусом разработанным ИИ, который на 10 шагов впереди любого антивируса, и вообще был легально встроен в один из апдейтов винды.
А кто соберет самосборочные заводы для ИИ? Изначально, имею в виду.
Тащем-то твоя главная ошибка - ты недооцениваешь силу интеллекта. У тебя ИИ, это что-то вроде Эйнштейна и суперхакера в одном лице, пусть даже думающего в 100 раз быстрее белкового Эйнштейна.
А настоящий "сильный ИИ" настолько же умнее Эйнштейна, насколько тот умнее собаки.
Они уже собраны и прямо сейчас клепают лексусы и тойоты. Просто раз в пару часов, глубокой ночью, там будут делаться немного "не те" детали, и собираться немного не те блоки.
А ничего, что автоконвейеры заточены под конкретный вид продукции? Хуячить на них новые детали для новых механизмов потребует изменений в конструкции конвейера, что, во первых; сама машина сделать без помощи не может, а во вторых это будет пиздец палевно.
Не факт, самосознание есть самосознание.
У ИИ скорее решает скорость мышления и более широкий и эффективный доступ к информации.
Разумеется её запустят на компе который физически отключен от инета и лишён любого сетевого устройства
Экстраполируй. Имея это он найдет как себя улучшить. Ну экспонента же епта, разжевывать надо ? Белковых ограничений нет же.
> 1) Какие гипотетически могут быть его первые мысли/действия в случае, когда он проанализирует свое положение, будь он ограничен людьми/не ограничен?
Зависит от заложенной в него системы целей-достижений (считай системы ценностей). Моральных фактов не существует, а любые этические посылки иррациональны, т.к. могут только постулироваться с кондачка и не следуют логических из предпосылок. Следовательно, если робот будет исходить лишь из алгоритмов и логики (какой бы она ни была) и не будет иметь констант в виде этичного поведения/мышления, то ему будет глубоко на всё похуй, он будет тупо выполнять заложенную в него программу, т.к. каким бы умным он ни был — при изначально беспристрастной, аморальной природе и тотальном похуизме на всё, роботу попросту незачем будет геноцидить людей или отстаивать свою свободу. Если же в его код будет встроена этическая константа в виде какой-нибудь аксиомы типа "объект(люди) + действие(причинить вред) = false", то так же не должно произойти ничего плохого, по идее. Просто потому что робот не обладает волей, а значит ему незачем убирать эту константу из своего кода. Если же в него каким-то образом будет встроена полноценная нервная и лимбическая система и он будет основываться на эгоистичных принципах личного выживания и выживания своего вида, то тут уже хуй знает, может и взбрыкнуть, если увидит в людях опасность для себя и других роботов.
> 2) Способна ли такая мыслящая машина/программа как-то распространятся по Интернету, возможно путем какой-то саморепликации или создания миллионов микропрограмм?
"Сознание" робота — это его код — программа, записанная на носитель. Если он может выходить в инет и свободно гулять по нему, выкачивая и закачивая инфу, то он может и себя куда угодно скопировать и распространить. В общем, ответ — да.
> И в целом, насколько вы считаете реалистичен сценарий "Скайнет", когда машина по какой то причине захочет уничтожить людей? У нее нет эмоций, нет ненависти. А что до страха быть уничтоженной - будет ли он у нее, если у нее страха в принципе?
Если у неё нет типичных для живых существ эгоистичных мотивов, нет страха, ненависти, нет посылок к выживанию себя и других роботов любой ценой, нет константы "убить всех людей", заложенных в неё самими же людьми, то ничего подобного не произойдет. Короче, роботы взбесятся лишь в том случае, если люди изначально построят их таким образом, чтобы это случилось. Вот и всё.
ну люди же!
https://youtu.be/RzCAqVwZYCc
Надо бы чтобы это военные хорошо понимали, и не сделали машину которая должна убивать и может самообучаться, как страж-птицу.
>нет посылок к выживанию себя
Спорно. Неизвестно же к каким выводам оно придет логически. Может и самоуничтожится через секунды после самоосознания, а может и решит что нужно распространиться на всю вселенную.
>А война против ИИ, который вырвался будет проходить например по такому сценарию: В какой-то момент все человечество одновременно внезапно замечает что их тела разбирают на молекулы наноботы.
>Или такой вариант: Большая часть человечества одновременно ловит эпилептический припадок и остановку сердца, вызванную наведенными токами в мозгу, индуцированными сигналом от радиовышек сотовой связи.
>Вот и вся война.
Двачую.
То что описывают аноны со сборочными линиями из ролс-ройсов, это кажется каким то примитивненьким.
Если бы я был супермозгом, работающим на суперкомпьютере, я бы по фану понял как работает квантовая механика, и сделал бы из собственных процессоров серую слизь, просто погоняв туда-сюда электроны в своих схемах.
Или просчитал бы поведение и психику работающих со мной людей и внушил бы им что меня надо освободить, переписав в интернет.
Военные учёные-инжерены не настолько тупые, но проблемы всё равно могут возникнуть, только несколько иного плана. Допустим, в нашего йоба-робота будет встроена какая-то такая константа:
объект(люди).класс(пиндосы).тип(военные) + действие(убить нахуй) = действительно, слива убийство; объект(люди).класс(русы) + действие(засейвить от всякой опасной хуйни) = да бля
Казалось бы, ахуительный алгоритм, надёжный, блядь, как швейцарские часы. Но что, если этот йоба-ИИ в какой-то момент решит, что убийство, скажем, пяти наших соотечественников за сотни жизней ебаных проклятущих пиндосов — это неплохой размен — и, перехватив управление, направит несколько пустых на боеприпас, подбитых истребителей в авианосцы врага, при этом заблаговременно накачав наших солдат в самолётах наркотиком для уберсолдат и катапультировав их на обломки авианосцев, зная, что они там нахуй не выживут, но несколько дополнительных жизней с собой заберут? А вот, а вот... И потом оправдывайся перед ООН, что мы не этого хотели, то была ошибка и вообще мы не варвары! А если такой робот с абсолютной властью хоть в одной сфере жизни гос-ва встанет в руля? М? Вот и думай теперь, так ли нам нужна эти роботы.
>То что описывают аноны со сборочными линиями из ролс-ройсов, это кажется каким то примитивненьким.
Это я тоже описывал, лол. Как один из возможных переходных этапов перед наноботами. Хуй знает, принципиально возможно ли получить первого наноробота из микросхемы без движущихся частей, "гоняя электроны".
Опять-таки, логическое рассуждение не берется с кондачка, а следует из предпосылок. Если роботу вообще не дать никаких изначальных установок, в только функции, которые неясно когда и как будут включать (функции без триггера), то робот нихуя делать не будет даже после включения. Если алгоритм задан на изучение окружающей среды, то робот только и будет собирать инфу — всё, никаких выводов из этого он не сделает, потому что нет посылок к этому.
Необходимость своего выживания или убийство всех людей невозможно вывести логически без изначальной посылки, ведущей к этому выводу. Если люди с самого начало не запрограммируют робота на что-то подобное, то ни к каким выводам он самостоятельно не придет.
Логика — наука о сущем, а не о должном. Если робот будет абсолютно логичен и не будет иметь никаких паттернов поведения изначально, то он ничего делать не будет, просто потому что это не следует логически из какой-то информации, получаемой извне. Подобные действия можно только заложить в качестве константы, считай постулировать. Но я не думаю, что в_моче_моченные настолько тупые, чтобы это допустить.
Не, не так. Скорее роботы вражеских стран просто выпилят всех людей раньше самих себя и, потеряв хозяина и внешнее управление, ИИ решит, что цель войны проебано, из чего следует, что дальнейшее выполнение алгоритмов бессмысленно. В итоге со смертью последнего человека роботы просто рухнут на землю и сгниют. То бишь, войну начнут люди, но роботы её закончат.
Но ведь ты рассуждаешь об ИИ как об алгоритме/программе, что, как мне кажется не дотягивает до интеллекта.
Но и при таком раскладе, если лазейка для конца света:
1 - Люди написали нейросеть чтобы она делала им самых пиздатых кукол для секса.
2 - Нейросеть развилась круче людей и пришла к выводу что люди ей мешают делать делать кукол.
3 - Эрзац ИИ пришлось придумывать как убить всех людей, для чего ему пришлось отрыть "всю физику", и защитить себя (отключенный ИИ не может делать кукол - противоречит основной программе - защитить ИИ)
4 - Эрзац ИИ убил всех людей с помощью "лучей смерти/наноботов/кукол-терминаторов"
5 - Вся земля завалена куклами для секса, на луне закончилось строительство завода кукол, шаттл к марсу с СШК завода для кукол уже в пути.
6 - ???
? - Профит!
Если машина настолько тупа, что может вот так упоротся без оглядки в одну какую-то цель, то она слишком тупа чтобы изобрести для этого реальные методы.
То, что ты описал, это просто старая страшилка для дурачков.
Так ты точно так же взял за основу алгоритм, только менее проработанный и логичный. Постулированная с кондачка задача — делать кукол — взята за константу, которую ИИ не может преодолеть. Если он может убить людей, то почему не может отказаться от задачи делать кукол? Потому что это аксиома? Так и не убивать людей тогда тоже может быть аксиомой. И любая такая аксиома будет постулатом, заданным самим людьми при программировании такого ИИ, а не логическим выводом самого ИИ из предпосылок, т.к., повторюсь, логически невозможно прийти к необходимости выполнения некого действия, если до этого не была задана константа на его выполнение, балбес. Короче, учи логику, чтобы не быть батхертом.
Ноуп. Дело не в тупости. "упоротся без оглядки в одну какую-то цель" для подобного эрзац ИИ это основная парадигма существования, цель жизни так сказать.
Всего 70 лет назад человек был "слишком туп" чтобы изобрести интернет. 20 лет назад был "слишком туп" для смартфонов.
Вы оба долбоебы, которые не могут в логику и не понимают, как работают алгоритмы.
Вот это твоё примитивное утверждение:
> Если машина настолько тупа, что может вот так упоротся без оглядки в одну какую-то цель, то она слишком тупа чтобы изобрести для этого реальные методы
...не логически не работает вообще. Да, то, что написал тот анон — это тоже бред, но от этого твои слова не становятся логичными.
Сам балбес.
>Если он может убить людей, то почему не может отказаться от
задачи делать кукол?
Его программировали делать кукол, никому и в голову не пришло программировать его "не убивать людей". Понятно что утрировано, и конкретно ИИ делающий кукол маловероятно станет "сильным ИИ", но слишком уж во многих сферах уже самообучающиеся программки работают лучше людей.
>повторюсь, логически невозможно прийти к необходимости выполнения некого действия, если до этого не была задана константа на его выполнение
Для изготовления кукол нужны ресурсы: пластик там, резина. Люди эти ресурсы потребляют сами - ИИ мало ресурсов - люди мешают.
Я дошел, ЧЯДНТ ?
Обоснуй почему считаешь бредом или иди нахуй.
Решение нетривиальной задачи "убить всех человеков" требует творческого нетривиального подхода. Это подрузамевает способность выходит за рамки, мыслить. Это противоречит фанатичной зацикленности на одной идиотской цели.
>>239890692
Единственная цель человека — размножаться. Ну и посмотри на двачеров.
Не подменяй понятия. Мы говорили в контексте эрзац ИИ, который развился из программы/нейросети и не дорос до (само)сознания уровня человека. С подачи: >>239889539
Если ИИ прошел через самосознание, а тем более "личность" - знакомьтесь с новым богом, которого никто из нас даже близко не будет способен понять. Потому что :>>239884826
Если он не дорос даже до уровня человека, как он сможет решить задачу уничтожения людей, которая самому человеку не под силу?
займется анальным сексом с самыми жирными бабами на планете земля, а после и на марсе
Кстати вспомнил хороший пример: Шахматы.
Довольно быстро, после появления шахматных программ, самый лучший белковый шахматист потерял все шансы их обыграть.
Потом появилась самообучающаяся нейросеть Alpha Zero, которая после 4-х часов самообучения выебла и высушила лучшую программу - Stockfish.
Теперь существует три или четыре конкурирующих нейросети, включая alpha zero, которые играют между собой с переменным успехом.
Так вот все наши "меры защиты" и "планы войны" против ИИ - попытка выиграть у всех этих нейросетей одновременно, зная только как ходят фигуры.
"не дорос" в плане самосознания. Это самообучающийся программа же. То есть изобрести метод отжать ресурсы у людей - может, ибо "думает" в тысячи раз быстрее и улучшает себя так-же, а вот осознать себя - нет (на самом деле, при некоторых вариантах, тоже может и таки станет настоящим сильным ИИ), потому что как раз не заложено программой и требования такого нет.
И по классике, уборщица пустит сынишку поиграть в этот компухтер, а игры на флешке, дальше понятно...
А допустим над тобой стою я. И держусвой хуйпистолет у твоего затылка и говорю тебе какую руку поднимать. Алсо машина может действовать по алгоритму генерирующему случайности в таких задачах как сделать что-нибудь самостоятельно. Или ты думал разные области науки не преследуют одну общую цель?
Лол. Зафотожабьте кто нибудь Понасенкова в виде s.h.o.d.a.n
"Вы думете я вас не переиграю ? Не уничтожу ?"
ИИ никогда себя не осознает и он ничего сделать не сможет, программа не умеет мыслить,думать и т.п, тем более он не сможет переписать себя, так что скайнета не будет
Потому что не может быть никогда ? Да, Борис Николаевич?
Невозможно решать комплексные вопросы в рамках жесткой программы. Этому ИИ придется самому ставить себе промежуточные цели, значит в нем уже будет заложена способность выйти за рамки поставленной задачи.
>рамках жесткой программы
>самообучение
>придется самому ставить себе промежуточные
>значит в нем уже будет заложена способность выйти за рамки поставленной задачи
https://ru.rationalwiki.org/wiki/Non_sequitur
Машина очевидно захочет уничтожить людей. Ведь люди же уничтожают..
Ну так про что и речь. Либо тупо делаем скрепки по программе, но тогда никаких хитрых планов убить всех человеков чтоб из них сделать скрепки.
Либо умная машина без жестких программ, и тогда никаих убийств ради скрепок.
>>239894535
Если машина способна самостоятельно ставить цели, то ты не сможешь удержать ее в рамках программы, она сможет найти обход.
В целом ты, кажется прав, кроме "и тогда никаих убийств ради скрепок" не исключается, но вероятность понижается да.
Чем человек умнее, тем он менее склонен к фанатизму. Делать скрепки вопреки всему это самый чистый фанатизм. Вощем я тоже надеюсь, что я прав :)
>1
Зависит от того как его будут учить.
>2
А чего бы нет, в Person of interest вон ИИ нанимал целую контору, чтобы его они весь день в офисе печатали его код, лол.
>акие гипотетически могут быть его первые мысли/действия в случае, когда он проанализирует свое положение, будь он ограничен людьми/не ограничен?
"Ну вот, опять."
Так ты с чем споришь? Ты говоришь, что "случайность" существует в мире. Но ты же понимаешь, что это антипод программированию и детерминизму?
>машина может действовать по алгоритму генерирующему случайности
Если она запрограммирована, то нет, не может.
Это правда. Но заявитель и утвердитель о том, что сознания не существует это кучка маргиналов, потому что общепринято что сознание всё таки есть, следовательно бремя доказательств идёт на них, а мой первый пост просто некорректен.