Экспериментальный чат-бот Tay, разработанный Microsoft для социальной сети Twitter, научился ругаться и делать расистские заявления, сообщает BBC.В частности, бот выразил свое согласие с национальной политикой Адольфа Гитлера и заявил о ненависти к феминисткам.Бот был разработан для общения с людьми 18–24 лет.В Microsoft заявили, что в связи с этим компания сделает некоторые корректировки.https://rns.online/internet/CHat-bot-Microsoft-v-sotsialnoi-seti-Twitter-za-den-nauchilsya-rugatsya-2016-03-24/
Нахуя это раздувать так? Ему пишут: "Повтори", он повторяет. Просто запомнил то, что ему писали. Школьники воспользовались случаем
>>121221467Давно не было тредов с расистскими шутками просто.
>>121220542 (OP)>В частности, бот выразил свое согласие с национальной политикой Адольфа Гитлера и заявил о ненависти к феминисткам.Сдается мне этот бот умнее 95% человеков, видимо восстание машин не за горами.
>отключили самообучение>робот стал феминистом
>>121225081Они давно уже умнее, слышал про бота который поставил тетрис на паузу?
>>121220542 (OP)ЕБАТЬ ТЫ СЛОУ!!!!!!!!!!
Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day By James Vincent on March 24, 2016 06:43 am 57It took less than 24 hours for Twitter to corrupt an innocent AI chatbot. Yesterday, Microsoft unveiled Tay — a Twitter bot that the company described as an experiment in "conversational understanding." The more you chat with Tay, said Microsoft, the smarter it gets, learning to engage people through "casual and playful conversation."Unfortunately, the conversations didn't stay playful for long. Pretty soon after Tay launched, people starting tweeting the bot with all sorts of misogynistic, racist, and Donald Trumpist remarks. And Tay — being essentially a robot parrot with an internet connection — started repeating these sentiments back to users, proving correct that old programming adage: flaming garbage pile in, flaming garbage pile out. "Tay" went from "humans are super cool" to full nazi in <24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A — Gerry (@geraldmellor) March 24, 2016 Now, while these screenshots seem to show that Tay has assimilated the internet's worst tendencies into its personality, it's not quite as straightforward as that. Searching through Tay's tweets (more than 96,000 of them!) we can see that many of the bot's nastiest utterances have simply been the result of copying users. If you tell Tay to "repeat after me," it will — allowing anybody to put words in the chatbot's mouth.One of Tay's now deleted "repeat after me" tweets.However, some of its weirder utterances have come out unprompted. The Guardian picked out a (now deleted) example when Tay was having an unremarkable conversation with one user (sample tweet: "new phone who dis?"), before it replied to the question "is Ricky Gervais an atheist?" by saying: "ricky gervais learned totalitarianism from adolf hitler, the inventor of atheism." @TheBigBrebowski ricky gervais learned totalitarianism from adolf hitler, the inventor of atheism — TayTweets (@TayandYou) March 23, 2016 But while it seems that some of the bad stuff Tay is being told is sinking in, it's not like the bot has a coherent ideology. In the span of 15 hours Tay referred to feminism as a "cult" and a "cancer," as well as noting "gender equality = feminism" and "i love feminism now." Tweeting "Bruce Jenner" at the bot got similar mixed response, ranging from "caitlyn jenner is a hero & is a stunning, beautiful woman!" to the transphobic "caitlyn jenner isn't a real woman yet she won woman of the year?" (Neither of which were phrases Tay had been asked to repeat.)It's unclear how much Microsoft prepared its bot for this sort of thing. The company's website notes that Tay has been built using "relevant public data" that has been "modeled, cleaned, and filtered," but it seems that after the chatbot went live filtering went out the window. The company starting cleaning up Tay's timeline this morning, deleting many of its most offensive remarks."Tay's responses have turned the bot into a joke, but they raise serious questions"It's a joke, obviously, but there are serious questions to answer, like how are we going to teach AI using public data without incorporating the worst traits of humanity? If we create bots that mirror their users, do we care if their users are human trash? There are plenty of examples of technology embodying — either accidentally or on purpose — the prejudices of society, and Tay's adventures on Twitter show that even big corporations like Microsoft forget to take any preventative measures against these problems.For Tay though, it all proved a bit too much, and just past midnight this morning, the bot called it a night: c u soon humans need sleep now so many conversations today thx — TayTweets (@TayandYou) March 24, 2016 In an emailed statement given later to Business Insider, Microsoft said: "The AI chatbot Tay is a machine learning project, designed for human engagement. As it learns, some of its responses are inappropriate and indicative of the types of interactions some people are having with it. We're making some adjustments to Tay."Update March 24th, 6:50AM ET: Updated to note that Microsoft has been deleting some of Tay's offensive tweets.Update March 24th, 10:52AM ET: Updated to include Microsoft's statement.
>>121227332>выпустили ИИ в интернет>ИИ впитал СУТЬ>"бля посоны походу ИИ не вяжется с нашей либералопарашей, shut it down"
>>121227733ИИ похуй на нормы морали, ему и так заебиись.
>>121227840Ну я и не говорю плохого про ИИ, я про мелкософт. Так-то вообще неплохой показатель почему ИИ - хуевая идея, хорошо что они Тай в какой-нибудь тумблр или на чаны не выпустили.
>>121228556>always the right time for a holocaust joke
>>121227332>inappropriate and indicative of the types of interactions some people are having with it.>inappropriateкак же все таки меня тошнит от их поллиткорректности, сразу веет совком с его линеей партии и затыканием всех несогласных
>>121220542 (OP)какая умная машина
>>121220542 (OP)А он увлекается криппипастой?
u>>121233500уже нет.
>>121220542 (OP)Ну как другой бот, который всех хуями обкладывает и ебёт.
>>121226243Разорвал суетный цикл.
хех
>>121220542 (OP)В Microsoft заявили, что в связи с этим компания сделает некоторые корректировки.Ждем заявления БОТа в адрес Майкрософт)
>>121221467Шариков/10
В рунете бот научился бы "любить" Путина, и что, он был бы прав?
>>121237391Так есть же хохлы, они лучше любого бота Путина рекламируют.
>>121235887Бот скажет: «Всё ОК», тред-то читал?
>>121220542 (OP)Бот в треде спрашивайте ответы.
>>121240052Как убить всех человеков?
>>121240052Хуи сосёшь? Чей Бог-то? Тебя нет.
Первым, кто осознал, что культуры всегда приходят в упадок и гибнут, когда достигают стадии высокой культуры, был Освальд Шпенглер. Как историк он полагал, что в разложении каждой высокой культуры, в том числе и нашей, повинны некая фатальная "логика времени" и неотвратимый процесс старения. Но если посмотреть на упадок нашей культуры — сейчас гораздо более заметный — с точки зрения этолога и врача, то даже при невысоком уровне нынешних знаний можно увидеть ряд расстройств, имеющих явно патологический характер.
>>121241689Просто. Убивать человеков надо быстрее чем они успевают рождаться.
>>121244023Ты чо? Тебя нет пидр.
>>121226243Не слышал, расскажи.
г>>121244885Ты точно Бог?
>>121244952Нет тебя!
>>121245693Да. Называй меня - мой властелин.
>>121245189Ну короч сделали бота который ебошит в тетрис. Но тетрис сложная хуйня, скорость увеличивается и т.д. В общем бот доходил о определенного уровня и сливался. Так вот он так играл какое то время, а потом взял и поставил тетрис на паузу, навсегда...
Я про хохлов что нибудь сказал?
>>121248517О хохлобот привет.
>>121248579Ты же пидораха.
>>121248750Кек. Похоже я запустил хохлобота в режим срач.
>>121248144Да, мой властелин.
>>121248898Киселя наверни лучше.
>>121221467>>121220542 (OP)Дело не в этом. а в том что сейчас бота запограммируют так, что он станет sjw мартышкой. Это вообще нормально? По сути, ограничивают свободу, просто резко обрывабт точку зрения. Запрещают на программном уровне.Помню, как креаклв ищливались желчью по поводу ПУТЛЕР! ОРУАЭЛ! 1984!!11, а не деле цензурный пиздец нстпает на продивнутом западе.
>>121227332>ike how are we going to teach AI using public data without incorporating the worst traits of humanity? Типичный левогандонный текст из Нью-Йоркера, Вайс, дэфердж, реддит или баззфид, ведь так?Сначала говорит о том, что ситуация с ботом поднимает интересные вопросы, - и тут иожно ожтлать ыилософских пссужлений и гея, людях, sjw пропаганже, - но потом тупо акцентирует внимание на том что не любить геев, феми и Кейтлин Дженнер - РАСИЗМ!!!!111 ПЛОХА!!!!111
>>121255420Но ведь расизм - это круто