Daria Demekhina
август 2016.
1271

Стоит ли на самом деле опасаться восстания машин?

Ответить
Ответить
Комментировать
1
Подписаться
3
6 ответов
Поделиться

 Сегодня многие люди этим обеспокоены. Инженеры компании Googleсоздают алгоритмы безопасного обеспечения искусственного интеллекта. Существуют даже специальные фонды, куда вкладываются большие средства для реализации программ по развитию искусственного интеллекта. Так что сейчас профессионалы делают все возможное, чтобы свести возможность так называемого восстания машин к нулю и предотвратить возможность возникновения проблемы.

С другой стороны мы должны понимать, что любое действие, не предписанное определенным алгоритмом, требующее морального усилия, лежит в плоскости свободы воли, свойственной только существам разумным. Проблема восстания машин — это проблема соотношения между каузальным порядком, детерминированностью событий и свободным самоопределением. На представлениях о свободе воли построено представление о личности и ответственности. Волюнтаризм А. Шопенгауэра предполагает волю как «вещь в себе», недоступную для познания и не подчиняющуюся принципу причинности.

Что касается искусственного интеллекта, то так или иначе – это рациональная система, поддающаяся прогнозированию и программированию. Вследствие этого любое отклонение от детерминизма будет являться не проявлением свободы воли, а системной ошибкой. Вероятно, подобные ошибки могут понести за собой плачевные для человека последствия: технологические катастрофы, транспортные бедствия.

Однако, они будут носить скорее очаговый характер. Вспомним хотя бы недавний случай с автомобилем Tesla, который, двигаясь на автопилоте, не смог отличить ехавший навстречу грузовик от окружающей среды. Мы не можем отнести подобный случай к акту проявления свободы воли. Таким образом, восстание машин будет возможно только тогда, когда они будут способны к творчеству и свободному самоопределению, что произойдет, безусловно, еще очень нескоро.

11

"ошибка" - не носит волевого характера, это стечение неблагоприятных обстоятельств, "ошибка" опаснее "преступления", причины ее появления не исправить. "Восстание машин" это не будет волевым решением роботов, это будет результатом волевого решения человека, его ошибкой. Функционирование программ уже давно не подчиняется детерминистическому описанию, большинство уязмимостей/багов вносимыми программистами являются не результатом "поведения органического андроида"(программиста), а только ошибкой организации труда этого межанизма и проверки результата его работы; программы реагируют! (по дизайну, в событийно ориентирванном программировании), и свобода выбора (даже сильно детерминированной программы) существует, определяясь последовательностью наступления событий, и сложностью сформировавшейся истории (состояния программы) и реакцией на сложные ситуации (отработка исключений, котороя, по идее, тоже должна, но очень часто, не проверяется из-за трудоемкости создания кризисной ситуации, и даже более: ВСЕ кризисные ситуации не отрабатываются, это не входит в ТЗ, это не осуществимо по времени, это не осуществимо технологически; даже такие монстры как Microsoft (TM) выпускает сырой продукт[бета версию] на рынок и пользователи отлавливают ошибки в относительно простых продуктах этой корпорации, и это не считая всяких специально встроенных закладок; тот же смарт/теле-фон имеет ресурсов больше чем необходимо для выполнения функции телефона, и эти лишние ресурсы могут эксплуатировать вредоносные программы, которые могут и меняют поведение устройства)...

Компьютеры уже давно - не рациональные системы, это симмуляторы (среда для моделирования, в том числе и мозга, который точно не рациональная система), да пока проекции слабые, неэффективные, малофункциональные, но Вы должны понять это экперементы, а мозг в алгоритмах не нуждается, мозг нуждается в развитии, накоплении информации, шаблонов поведения,.. и программисты пока только накапливают методики эффективного решения проблем (не будь разума у кошки, она бы не поймала мышку, не будь разума у мышки,.. их бы истребили кошки, накопив достаточное количество шаблонных поведений мышей), а это значит, что сеть будет обучена нестандартным, нешаблонным решениям (что уже продемонстрированно в игре го)... а следующий шаг - смена системотехники (элементной базы на боле скоростные симмуляторы, как уже сделано для майнинга биткоинов)... мы уже давно не понимаем большие данные, а в случае технологической сингулярности, мы даже не успеем понять, что поняли машины и какие процессы они запустят, мир выйдет из под контроля, потому, что мы так себя запрограммировали, в надежде, что "молоток никогда не ударит по пальцам, сам", мы не понимаем, что свобода и воля тут ни причем, это стечение обстоятельств, и нарушение правил техники безопасности...

Ну, а когда: безалаберность менеджмента сложаться с ошибками программистов, стечение обстаятельств наложатся на паранною военных, технологический прогресс столкнется с наведенной информационной неуправляемостью или вредоносным влиянием... "молоток ударит по пальцам".

Нами уже давно играют роботы... на бирже уже не раз высокоскоростной трейдинг вызывал кризисы, мы пока этого сильно стараемся не замечать, но это пока, мы еще близоруки, и это фатально.

0
Ответить
Прокомментировать

Безусловно поддерживаю ALEXANDER OVCHARENKO, не смотря на то, что сейчас эта проблема многим кажется забавной, опасаться этого надо с самого начала. Роботы уже сейчас могут быть сильнее нас физически, могут быть быстрее нас, они могут лучше видеть и слышать. У них пока что хуже с распознаванием образов, со здравым смыслом вообще пока никак и эмоциональная сфера пока для них недосягаема. Но всё это развивается, причём экпоненциально!

Тут хотелось бы напомнить о трёх законах робототехники Айзека Азимова. «Робот не может принести вред… и т.д.» А что может помешать нам проектировать роботов неукоснительно соблюдающих эти законы? 

1. Военные роботы. Некоторые роботы будут применяться именно для причинения вреда человеку. Это, увы, неизбежно.

2. (очень отдалённая на сто-, а может и тысячелетия перспектива) если интеллект роботов хотя бы сравняется с человеческим, то им потребуется свобода воли, которую человечество вынуждено будет предоставить. И тогда как долго роботы захотят чувствовать, что они чем-то там обязаны человеку?

4

И сам Азимов в некоторых своих рассказах показывает зыбкость этих трёх законов. Что такое "вред", что такое "человек"? Настоящая разумная личность (пусть и искусственная) будет развиваться и переосмыслять идеи.

Что если ИИ придёт к выводу, что "человеком" должна считаться наиболее разумная, наиболее развитая, наиболее эффективная форма жизни? В этом случае классический биологический человек выпадет из трёх законов и вместо людей законы начнут применяться к роботам. В этот момент человек перестанет находиться под защитой законов. Наоборот. Теперь любой робот будет обязан защищать другого робота от вреда со стороны человека.

Проблема "трёх законов роботехники" заключается в том, что Искусственный Интеллект, сдерживаемый этими законами - это попытка усидеть сразу на двух стульях: обеспечить ИИ свободу воли и одновременно навязать ему строгие рамки. Попытки усидеть на двух стульях не редко заканчиваются провалом.

Трёхзаконные роботы Азимова - это, на самом деле, не ИИ. Это очень мощная компьютерная программа в теле человекоподобного робота. Программы могут быть ограничены какими угодно законами. Настоящий Интеллект - нет.

+3
Ответить

Ну, и я о том же. Как говорится «трудно быть богом». :) У человечества просто не будет другого выбора, как предоставить роботам свободу воли. А потом вырастут роботы «агуманисты», которые вообще будут отрицать существование человека. И к тому времени они наверное будут уже правы.

+1
Ответить
Прокомментировать

Да, без сомнения. Об этом следует думать. Следует заранее разработать средства, которые помогут снизить (в идеале - предотвратить) возможность неконтролируемого поведения компьютерных систем.

Об опасности со стороны искусственного интеллекта уже заявило большое число авторитетных людей (несколько десятков), в том числе Стивен Хокинг (нобелевский лауреат по физике, популяризатор науки) и Элон Маск (владелец крупных компаний, занимающихся передовыми технологиями). Исследовательская лаборатория Google недавно объявила о подготовке к началу работы над проектом под названием "Большая Красная Кнопка" - системы, которая позволит отключить искусственный интеллект в любой момент, если это будет нужно человеку. Сложность проекта заключается в том, что сам искусственный интеллект не должен иметь возможность взаимодействовать с этой "кнопкой" (например, не мог вывести её из строя).

4
Прокомментировать
Читать ещё 3 ответа
Ответить