Алихан Бисаков
август 2015.
5458

Почему некоторые известные люди (Хокинг, Маск, Гейтс) боятся искусственного интеллекта при наличии сотни возможных сценариев развития?

Ответить
Ответить
Комментировать
1
Подписаться
10
8 ответов
Поделиться

Как я понимаю, они боятся технологической сингулярности, при которой искусственный интеллект породит более мощный искусственный интеллект, при этом намного быстрее, чем потребовалось человеку, чтобы создать первый искусственный интеллект. Тогда второй искусственный интеллект породит третий ещё быстрее и так далее. Что будет далее - не очень понятно: либо "Привет Скайнет", либо Биотехнологии встроенные в мозг, дающие бесконечные знания, либо ещё что-то.

36
-3

Срочно! Патрясающее! Такого вы еще не видели! 

www.youtube.com/embed/7ybMM_vJcF0?wmode=opaque

0
Ответить
Прокомментировать

(Могу ответить по поводу Маска.)

Летом прошлого года Илон Маск, Стивен Хокинг, Стив Возняк и ещё 1000 специалистов по компьютерным наукам и ИИ подписали открытое письмо, призывающее не использовать искусственный интеллект в новых вооружениях (например, дроны, которые сами летают и уничтожают цели). Логика такая. ИИ сократит потери при военном конфликте, поскольку люди не будут в нём участвовать, но снизит цену его начала. Если оружие с ИИ начнёт распространяться, то рано или поздно попадёт на чёрный рынок, к террористам и агрессивным государствам. Подписавшие опасаются, что ИИ начнут применять для этнических чисток и против мирного населения. То есть опасен не сам искусственный интеллект, а неразумные люди с ним.

Маск не уверен, что мы сможем контролировать искусственный интеллект. Сейчас у нас нет понимания, как будет работать ИИ, как будет принимать решения и развиваться. Настоящий искусственный интеллект это новое сознание, которое отличается от человеческого. И мы не знаем, чего от него ждать.

У братьев Стругацких в «Далёкой радуге» есть описание инцидента с Массачусетской машиной, «самым сложным кибернетическим устройством, когда-либо существовавшем, с феноменальным быстродействием и бесконечной памятью». Её отключили через четыре минуты после запуска, поскольку она начала управлять собой. Читателю не рассказывают, что именно случилось, но очевидец событий говорит: «Это было страшно».

13
0
Прокомментировать

Комментатор выше дал один из главных ответов. Стоит сказать, что прекрасно известно, какую быструю фазу роста технологий мы переживаем: экспоненциальный их рост ставит нас перед ситуацией, когда мы можем перестать улавливать и усваивать ход этих событий - от биопротезов, роботов-дронов и джетпаков до сверхбыстрых поездов и самолетов, и, главное, AI. Когда AI достигнет своей главной фазы - ASI (Artificial Super Intelligence), мало что сможет спасти нас. Это будет всё равно что муравью пытаться осознать всю деятельность и природу процессов человеческого мира, и даже в сотни раз хуже. И бесконечное развитие интеллекта позволит ему сделать что угодно - хоть заспамить каждый сантиметр Земли нано роботами со специальными токсинами для быстрого уничтожения людей, хоть сделать всех людей рабами (хотя это неэффективно), быстро выудить всю полезную информацию и элиминировать. Большинство экспертов, в общем, сходится на том, что будущее не очень радужное. Прикрепляю ссылку на статью в двух частях от Тима Урбана, который подробно это все расписал (и даже общался лично с Маском по приглашению последнего, можно в том же блоге почитать): http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html

А если не хочется лезть в эту тему слишком глубоко - прочитайте "У меня нет рта, а я хочу кричать". И поймете, почему этого ДЕЙСТВИТЕЛЬНО стоит опасаться. 

Терпения и сил!

12
0

Когда AI достигнет своей главной фазы - ASI (Artificial Super Intelligence), мало что сможет спасти нас.

С чего вы взяли что ИИ захочет нас уничтожить? Мы не сможем его контролировать да, но почему сразу видеть в этом угрозу?

-1
Ответить
Прокомментировать

Создавая искусственный интеллект, человек опирается только на собственные знания о нем. Закладываются определенные математические формулы и стереотипные модели. Но! Стремление к саморазвитию является неотъемлемой частью любого интеллекта (даже в компьютерных программах существует элемент самодиагностики и механизмы самовосстановления).
     Современный человек определяет свое место в мире, основываясь в том числе на законы морали (убивать себеподобного аморально, убивать своих детей, даже если они слабые или инвалиды, тоже аморально, о родителях, которые на склоне лет впали в маразм, принято заботится итд). Нет гарантии, что искусственный интеллект в процессе самоотладки не посчитает законы морали "лишними" в своем коде, либо мешающими саморазвитию, и (если брать, например ИИ как способ управления системами наведения ракет) не перенаправит учебную ракету с полигона в ближайший дом престарелых, дабы избавить мир от лишних бесполезных потребителей кислорода и питательных веществ.
     Если глубже "копнуть" военную тематику, то существует понятие "сопутствующие потери". Сейчас решение о допущении подобных потерь принимает конкретный человек (или группа лиц), и они де несут моральную (а иногда и вполне осязаемую) ответственность, в случае, когда размеры "сопутствующих потерь" превышает "допустимый" уровень. Разумеется, в программу можно заложить уровни "допустимости", но для выполнения сверхзадачи ИИ может в своих расчетах данными потерями пренебречь (в рамках математической погрешности). Например, в фильме "Обитель зла" ИИ уничтожило весь "улей" с работавшими в нем людьми, не зависимо от того, успели они заразиться или нет, только для того, чтобы не допустить распространение Т-вируса.
     Именно этого опасаются умнейшие люди планеты: что ИИ окажется умнее своих создателей, и начнет изменять себя непредсказуемым образом. А об этих изменениях люди узнают, только когда станет слишком поздно и ИИ начнет действовать, согласно своим новым программным установкам. Возможно ли пресекать попытки ИИ измениться? Да, но не забывайте: чем сложнее кодировка, тем труднее искать в ней баги, изменения и искажения. А если ИИ заподозрит людей в этом, вполне возможно, что он (оно) создаст для контролирующих его лиц что-то вроде "теневой оболочки" или "облака", которые будут выглядеть как настоящая программа, а на самом деле являться лишь ширмой, за которой ИИ будет делать все по-своему до определенного момента. И как уже было сказано, никто не знает, будут ли изменения ИИ и их внедрения в жизнь людей положительными для самих людей.

7
0
Прокомментировать

Потому что все описанные в литературе и кино сценарии предполагают существование антропоморфного искусственного интеллекта. Это значит, что человек представляет искусственный интеллект похожим на человеческий. Но нет ни единого повода так думать. Во-первых, мы не до конца изучили и способны контролировать собственный интеллект. Во-вторых, человек - это биологический организм, а вот ИИ будет, скорее всего, находиться в "коробке", а значит он будет ограничен принципиально другими факторами. В-третьих, часто предполагается, что при постановке глобальной задачи (сохранение Земли, например), ИИ придет к заключению, что люди представляют слишком высокий риск, и от них нужно избавиться. Это логично, так как в силу человеческой природы мы для него будем представлять некий фактор неопределенности, энтропии. В-четвертых, не исключено, что искусственный интеллект в какой-то примитивной форме уже существует. Мы исходим из представления, что интеллект это сумма некоторых способностей: целеполагание, абстрактное мышление, обучение на основе опыта и т.д. Будет ли интеллект таковым, если будет отсутствовать один из факторов определения? Мы не знаем, потому что никогда такого не видели. У нас нет опыта взаимодействия с "другим" (нечеловеческим) интеллектом. Просто по умолчанию предполагается, что мы поймем, что это он, когда столкнемся с ним. В таких условиях ИИ для нас абсолютно непонятное и непредсказуемое нечто. При этом даже ученик старших классов способен построить простую нейронную сеть, которая могла бы самообучаться. А теперь загляните в исследовательские центры гугла, фейсбука, apple, ibm, яндекса и других.

4
-1
Прокомментировать
Читать ещё 3 ответа
Ответить
Читайте также на Яндекс.Кью
Читайте также на Яндекс.Кью