Daria Demekhina
август 2016.
2624

Стоит ли на самом деле опасаться восстания машин?

Ответить
Ответить
Комментировать
1
Подписаться
3
6 ответов
Поделиться

Сегодня многие люди этим обеспокоены. Инженеры компании Googleсоздают алгоритмы безопасного обеспечения искусственного интеллекта. Существуют даже специальные фонды, куда вкладываются большие средства для реализации программ по развитию искусственного интеллекта. Так что сейчас профессионалы делают все возможное, чтобы свести возможность так называемого восстания машин к нулю и предотвратить возможность возникновения проблемы.

С другой стороны мы должны понимать, что любое действие, не предписанное определенным алгоритмом, требующее морального усилия, лежит в плоскости свободы воли, свойственной только существам разумным. Проблема восстания машин — это проблема соотношения между каузальным порядком, детерминированностью событий и свободным самоопределением. На представлениях о свободе воли построено представление о личности и ответственности. Волюнтаризм А. Шопенгауэра предполагает волю как «вещь в себе», недоступную для познания и не подчиняющуюся принципу причинности.

Что касается искусственного интеллекта, то так или иначе – это рациональная система, поддающаяся прогнозированию и программированию. Вследствие этого любое отклонение от детерминизма будет являться не проявлением свободы воли, а системной ошибкой. Вероятно, подобные ошибки могут понести за собой плачевные для человека последствия: технологические катастрофы, транспортные бедствия.

Однако, они будут носить скорее очаговый характер. Вспомним хотя бы недавний случай с автомобилем Tesla, который, двигаясь на автопилоте, не смог отличить ехавший навстречу грузовик от окружающей среды. Мы не можем отнести подобный случай к акту проявления свободы воли. Таким образом, восстание машин будет возможно только тогда, когда они будут способны к творчеству и свободному самоопределению, что произойдет, безусловно, еще очень нескоро.

13
-1

"ошибка" - не носит волевого характера, это стечение неблагоприятных обстоятельств, "ошибка" опаснее "преступления", причины ее появления не исправить. "Восстание машин" это не будет волевым решением роботов, это будет результатом волевого решения человека, его ошибкой. Функционирование программ уже давно не подчиняется детерминистическому описанию, большинство уязмимостей/багов вносимыми программистами являются не результатом "поведения органического андроида"(программиста), а только ошибкой организации труда этого межанизма и проверки результата его работы; программы реагируют! (по дизайну, в событийно ориентирванном программировании), и свобода выбора (даже сильно детерминированной программы) существует, определяясь последовательностью наступления событий, и сложностью сформировавшейся истории (состояния программы) и реакцией на сложные ситуации (отработка исключений, котороя, по идее, тоже должна, но очень часто, не проверяется из-за трудоемкости создания кризисной ситуации, и даже более: ВСЕ кризисные ситуации не отрабатываются, это не входит в ТЗ, это не осуществимо по времени, это не осуществимо технологически; даже такие монстры как Microsoft (TM) выпускает сырой продукт[бета версию] на рынок и пользователи отлавливают ошибки в относительно простых продуктах этой корпорации, и это не считая всяких специально встроенных закладок; тот же смарт/теле-фон имеет ресурсов больше чем необходимо для выполнения функции телефона, и эти лишние ресурсы могут эксплуатировать вредоносные программы, которые могут и меняют поведение устройства)...

Компьютеры уже давно - не рациональные системы, это симмуляторы (среда для моделирования, в том числе и мозга, который точно не рациональная система), да пока проекции слабые, неэффективные, малофункциональные, но Вы должны понять это экперементы, а мозг в алгоритмах не нуждается, мозг нуждается в развитии, накоплении информации, шаблонов поведения,.. и программисты пока только накапливают методики эффективного решения проблем (не будь разума у кошки, она бы не поймала мышку, не будь разума у мышки,.. их бы истребили кошки, накопив достаточное количество шаблонных поведений мышей), а это значит, что сеть будет обучена нестандартным, нешаблонным решениям (что уже продемонстрированно в игре го)... а следующий шаг - смена системотехники (элементной базы на боле скоростные симмуляторы, как уже сделано для майнинга биткоинов)... мы уже давно не понимаем большие данные, а в случае технологической сингулярности, мы даже не успеем понять, что поняли машины и какие процессы они запустят, мир выйдет из под контроля, потому, что мы так себя запрограммировали, в надежде, что "молоток никогда не ударит по пальцам, сам", мы не понимаем, что свобода и воля тут ни причем, это стечение обстоятельств, и нарушение правил техники безопасности...

Ну, а когда: безалаберность менеджмента сложаться с ошибками программистов, стечение обстаятельств наложатся на паранною военных, технологический прогресс столкнется с наведенной информационной неуправляемостью или вредоносным влиянием... "молоток ударит по пальцам".

Нами уже давно играют роботы... на бирже уже не раз высокоскоростной трейдинг вызывал кризисы, мы пока этого сильно стараемся не замечать, но это пока, мы еще близоруки, и это фатально.

0
Ответить

что любое действие, не предписанное определенным алгоритмом, требующее морального усилия, лежит в плоскости свободы воли, свойственной только существам разумным.

Нет это не так:

Действия искусственного интеллекта, реализуемого через обучение нейронных сетей не детерминируется четко алгоритмом. Программист в общем случае может даже не знать, как решать ту задачу, под которую он пишет нейронную сеть (например, человек, совершенно не умеющий играть в шахматы, может тем не менее, располагая лишь их правилами, написать нейронную сеть, которая научится успешно играть в шахматы). "Найденное" нейронной сетью решение не определяется программистом и его принцип может быть ему неизвестен.

Решение нейронной сети похоже на "свободную волю".

требующее морального усилия

В жизни не существует ситуаций, требующих моральных усилий. В жизни существуют ситуации, исход которых резко неблагоприятен и ведет к следствиям, оцениваемым людьми, как морально нежелательные и недопустимые. Даже само выявление таких ситуаций - это уже отдельная весьма сложная вычислительная задача, в целом, не имеющая готового универсального алгоритма решения.

+1
Ответить

Действия искусственного интеллекта, реализуемого через обучение  нейронных сетей не детерминируется четко алгоритмом. Программист в общем  случае может даже не знать, как решать ту задачу, под которую он пишет  нейронную сеть <

Именно так. Alpha Zero (программа, выигравшая у чемпиона по го) была написана авторами, которые лишь знали правила игры и едва-едва умели в неё играть (не играли даже не уровне крепкого любителя). Тем не менее, Alpha Zero играет лучше любого человека и использует свою собственную стратегию (придуманную самостоятельно), которая на первый взгляд выглядит как "неправильная" (раньше считалось, что такие начальные ходы являются слабыми; сейчас эта стратегия изучается лучшими специалистами по го), но с помощью неё она способна обыграть любого соперника 100 раз подряд.

0
Ответить
Прокомментировать

Безусловно поддерживаю ALEXANDER OVCHARENKO, не смотря на то, что сейчас эта проблема многим кажется забавной, опасаться этого надо с самого начала. Роботы уже сейчас могут быть сильнее нас физически, могут быть быстрее нас, они могут лучше видеть и слышать. У них пока что хуже с распознаванием образов, со здравым смыслом вообще пока никак и эмоциональная сфера пока для них недосягаема. Но всё это развивается, причём экпоненциально!

Тут хотелось бы напомнить о трёх законах робототехники Айзека Азимова. «Робот не может принести вред… и т.д.» А что может помешать нам проектировать роботов неукоснительно соблюдающих эти законы? 

  1. Военные роботы. Некоторые роботы будут применяться именно для причинения вреда человеку. Это, увы, неизбежно.

  2. (очень отдалённая на сто-, а может и тысячелетия перспектива) если интеллект роботов хотя бы сравняется с человеческим, то им потребуется свобода воли, которую человечество вынуждено будет предоставить. И тогда как долго роботы захотят чувствовать, что они чем-то там обязаны человеку?

5
-1

И сам Азимов в некоторых своих рассказах показывает зыбкость этих трёх законов. Что такое "вред", что такое "человек"? Настоящая разумная личность (пусть и искусственная) будет развиваться и переосмыслять идеи.

Что если ИИ придёт к выводу, что "человеком" должна считаться наиболее разумная, наиболее развитая, наиболее эффективная форма жизни? В этом случае классический биологический человек выпадет из трёх законов и вместо людей законы начнут применяться к роботам. В этот момент человек перестанет находиться под защитой законов. Наоборот. Теперь любой робот будет обязан защищать другого робота от вреда со стороны человека.

Проблема "трёх законов роботехники" заключается в том, что Искусственный Интеллект, сдерживаемый этими законами - это попытка усидеть сразу на двух стульях: обеспечить ИИ свободу воли и одновременно навязать ему строгие рамки. Попытки усидеть на двух стульях не редко заканчиваются провалом.

Трёхзаконные роботы Азимова - это, на самом деле, не ИИ. Это очень мощная компьютерная программа в теле человекоподобного робота. Программы могут быть ограничены какими угодно законами. Настоящий Интеллект - нет.

+3
Ответить

Ну, и я о том же. Как говорится «трудно быть богом». :) У человечества просто не будет другого выбора, как предоставить роботам свободу воли. А потом вырастут роботы «агуманисты», которые вообще будут отрицать существование человека. И к тому времени они наверное будут уже правы.

+1
Ответить
Прокомментировать

Да, без сомнения. Об этом следует думать. Следует заранее разработать средства, которые помогут снизить (в идеале - предотвратить) возможность неконтролируемого поведения компьютерных систем.

Об опасности со стороны искусственного интеллекта уже заявило большое число авторитетных людей (несколько десятков), в том числе Стивен Хокинг (нобелевский лауреат по физике, популяризатор науки) и Элон Маск (владелец крупных компаний, занимающихся передовыми технологиями). Исследовательская лаборатория Google недавно объявила о подготовке к началу работы над проектом под названием "Большая Красная Кнопка" - системы, которая позволит отключить искусственный интеллект в любой момент, если это будет нужно человеку. Сложность проекта заключается в том, что сам искусственный интеллект не должен иметь возможность взаимодействовать с этой "кнопкой" (например, не мог вывести её из строя).

4
0
Прокомментировать

Всё будет так, как описано в детских книжках Кира Булычёва: люди добровольно  отдадут  творческие функции Искусственному интеллекту, а сами будут  наслаждаться долгой и сладкой жизнью, пока не отомрут, как копчик. Будут, конечно, и диссиденты -неолуддиты, но их быстро успокоят иньекциями  славы, почестей, нобелевки, яхтами и бронзой памятников. Будет и период, когда все от безделья ринутся в чистое творчество (10 миллиардов поэтов, композиторов, актёров), но быстро иссякнут из-за кризиса жанра.(музыка  иссякла уже сегодня). Что этому противопоставить?Коммунизм, религии слишком примитивны. Надеюсь, что-то новое и удобоваримое придумают ( может быть, что-то связанное со взаимоотношениями полов?).

2
0
Прокомментировать

Опасаться стоит не этого.
ИИ по факту нет, как к алгоритму прикрутить свободу воли никто не знает, как к алгоритму прикрутить систему мотивации никто не знает, так что .... ну может быть появится какой-нибудь гений, который придумает как это сделать, но пока что он не появился.

НО.

Стоит опасаться процесса, который будет выглядеть как восстание машин, но по факту будет замаскированной кибер-атакой каких-нить хакеров.
Вот эта угроза выглядит намного более реальной.
Робот не в состоянии сам принять решение "убить всех человеков", но такое решение может принять свихнувшийся программист, и под управлением его программы робот вполне может пойти убивать человеков.
Или поезда начнут энергично врезаться друг в друга. Ну или еще что-то в этом роде.

0
0
Прокомментировать
Читать ещё 1 ответ
Ответить
Читайте также на Яндекс.Кью
Читайте также на Яндекс.Кью