Почему некоторые известные люди (Хокинг, Маск, Гейтс) боятся искусственного интеллекта при наличии сотни возможных сценариев развития?

3808
7
1
7 августа
17:27
август
2015

Как я понимаю, они боятся технологической сингулярности, при которой искусственный интеллект породит более мощный искусственный интеллект, при этом намного быстрее, чем потребовалось человеку, чтобы создать первый искусственный интеллект. Тогда второй искусственный интеллект породит третий ещё быстрее и так далее. Что будет далее - не очень понятно: либо "Привет Скайнет", либо Биотехнологии встроенные в мозг, дающие бесконечные знания, либо ещё что-то.

31
1
май
2016

Комментатор выше дал один из главных ответов. Стоит сказать, что прекрасно известно, какую быструю фазу роста технологий мы переживаем: экспоненциальный их рост ставит нас перед ситуацией, когда мы можем перестать улавливать и усваивать ход этих событий - от биопротезов, роботов-дронов и джетпаков до сверхбыстрых поездов и самолетов, и, главное, AI. Когда AI достигнет своей главной фазы - ASI (Artificial Super Intelligence), мало что сможет спасти нас. Это будет всё равно что муравью пытаться осознать всю деятельность и природу процессов человеческого мира, и даже в сотни раз хуже. И бесконечное развитие интеллекта позволит ему сделать что угодно - хоть заспамить каждый сантиметр Земли нано роботами со специальными токсинами для быстрого уничтожения людей, хоть сделать всех людей рабами (хотя это неэффективно), быстро выудить всю полезную информацию и элиминировать. Большинство экспертов, в общем, сходится на том, что будущее не очень радужное. Прикрепляю ссылку на статью в двух частях от Тима Урбана, который подробно это все расписал (и даже общался лично с Маском по приглашению последнего, можно в том же блоге почитать): http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html

А если не хочется лезть в эту тему слишком глубоко - прочитайте "У меня нет рта, а я хочу кричать". И поймете, почему этого ДЕЙСТВИТЕЛЬНО стоит опасаться. 

Терпения и сил! 

12
1
май
2016

(Могу ответить по поводу Маска.)

Летом прошлого года Илон Маск, Стивен Хокинг, Стив Возняк и ещё 1000 специалистов по компьютерным наукам и ИИ подписали открытое письмо, призывающее не использовать искусственный интеллект в новых вооружениях (например, дроны, которые сами летают и уничтожают цели). Логика такая. ИИ сократит потери при военном конфликте, поскольку люди не будут в нём участвовать, но снизит цену его начала. Если оружие с ИИ начнёт распространяться, то рано или поздно попадёт на чёрный рынок, к террористам и агрессивным государствам. Подписавшие опасаются, что ИИ начнут применять для этнических чисток и против мирного населения. То есть опасен не сам искусственный интеллект, а неразумные люди с ним.

Маск не уверен, что мы сможем контролировать искусственный интеллект. Сейчас у нас нет понимания, как будет работать ИИ, как будет принимать решения и развиваться. Настоящий искусственный интеллект это новое сознание, которое отличается от человеческого. И мы не знаем, чего от него ждать.

У братьев Стругацких в «Далёкой радуге» есть описание инцидента с Массачусетской машиной, «самым сложным кибернетическим устройством, когда-либо существовавшем, с феноменальным быстродействием и бесконечной памятью». Её отключили через четыре минуты после запуска, поскольку она начала управлять собой. Читателю не рассказывают, что именно случилось, но очевидец событий говорит: «Это было страшно».

11
0
показать ещё 5 ответов
Если вы знаете ответ на этот вопрос и можете аргументированно его обосновать, не стесняйтесь высказаться
Ответить самому
Выбрать эксперта