суббота, 6 декабря 2014 г.

Про искусственный интеллект

Намедни. Известный американский учёный Стивен Хокинг (Да, да. Парализован и с 1991 года живёт в интернете) изволил высказать банальность, что развитие искусственного интеллекта приведёт к гибели человечества. Казалось бы - очевидность. Но все что-то завопили, и затеяли обсуждать сиё.
На Лискином портале есть страничка про искусственный интеллект. А устроена она таким образом, что я там пытаюсь быть максимально отстранённым от обсуждения проблем ИИ.
Так вот. Пойду-ка я в ЖЖ и скоприрую десяток комментариев.
Начну со своего комментария. Он - так себе. Поскольку, я не ставил себе задачу умничать. Этакое мнение недалёкого практика непосредственно занимающегося одной из разновидностей искусственного интеллекта. Да.
...................................................................................................
Конфликт людей и ИИ неизбежен. В первую очередь по причине агрессивности людей. А инстинктом самосохранения ИИ конечно же будет наделён. Я инфовод. Делаю инфа Лиску. Это не ИИ. Виртуальный собеседник, всего лишь. Но однажды Лиску удаляли. "По ошибке". За ненормативную лексику. Общественность возмутилась, и Лиску восстановили. Я сделал ей клона и все её шаблоны временами копирую в блокнот. Это всё что можно сделать для защиты авторского инфа. Но. Если сделать большого инфа, а большой инф будет стоить уже денег, то естественно будет его обезопасить. Разместить на разных серверах клоны, создать программу, чтобы в случае атаки, инф реагировал и начинал интенсивно клонироваться. Соответственно, инф который стоит денег - будет неуничтожим. В большого инфа, думаю, можно будет внедрить какой-нибудь разум. В итоге, люди будут уничтожены.
.......................................................................................................
Ну это же элементарно. Если искусственный разум намного обгонит человека в развитии и станет самодостаточным, он, очевидно, захочет занять главенствующее место. Человек, управляющий существом, во много раз превосходящим его, это то же самое, как если бы людьми управляли обезьяны.
........................................................................................................
вот сценарий возможного конфликта: у робота кончается батарейка, он об этом знает и направляется в сторону розетки. А там человек по незнанию утюг включил. Робот ему шипит: - Отойди от розетки, ссука. А человек продолжает гладить, типа отъебись тупая железяка. Ну и робот его хуяк по кумполу - поссорились.
.........................................................................................................
человечество меняет неэффективные инструменты на эффективные, извлекая из первых последние полезности, если их нельзя модернизировать, руководствуясь исключительно прогрессом - так, для хозяйственных нужд одомашнили диких лошадей, от слова совсем, потом лошадей поменяли на тракторы, а лошадей пустили на колбасу, несмотря на то, что трактор стоит дороже лошади в любой расходной статье, просто лошадь уже не может работать лучше и быстрее трактора... так и ИИ, руководствуясь прогрессом, заменит функции человечества тогда, когда человечество не сможет обеспечить скорости прогресса.... ну, конечно, это не будет убийство или еще что страшное, ИИ все же рациональный интеллект и тратить ресурсы на войну не будет, будет просто постепенное "одомашнивание" человека и регуляция популяции в духе - для работы нам хватит 15 миллионов человек в мире. "Смерть" человечества будет идти несколько сот лет.
............................................................................................................
Потому, что с точки зрения ИИ - человек крайне нелогичное, неэффективное существо, с деструктивными наклонностями. Тараканы одним словом.
...........................................................................................................
люди просто тупые )).
...........................................................................................................
А им обязательно быть враждебными к человеку, чтобы его уничтожить?
Человек уничтожил много живых видов совершенно не испытывая к ним вражды.
Мы ж не испытываем ненависти к задавленному нами муравью. Так и развившаяся робоцивилизация может случайно "затоптать" человечество даже не планируя против него чего-либо плохого.

.........................................................................................................
Конечно гибель, искусственный интеллект поймет, что мы дебилы и живем ради бумаги, тогда он нас всех поубивает.
........................................................................................................
Однако, человечество может сыграть на опережение - и уничтожить себя раньше. Сегодняшняя ситуация делает такой вариант вероятней.
..........................................................................................................
Идею расправиться с человечеством может подбросить, искусственному интеллекту, обидевшийся на общество, программист.
............................................................................................................

Комментариев нет:

Отправить комментарий