Когда нужно начинать бояться роботов, если уже сейчас при помощи машинного изучения они изобрели свой собственный язык?

237
2
0
20 июня
18:26
20 июня
20:49

Технологи́ческая сингулярность — гипотетический момент, по прошествии которого, по мнению сторонников данной концепции, технический прогресс станет настолько быстрым и сложным, что окажется недоступным пониманию, предположительно следующий после создания искусственного интеллекта и самовоспроизводящихся машин, интеграции человека с вычислительными машинами, либо значительного скачкообразного увеличения возможностей человеческого мозга за счёт биотехнологий.

Вернор Виндж считает, что технологическая сингулярность может наступить уже около 2030 года, в то же время Рэймонд Курцвейл даёт 2045 год. На Саммите Сингулярности в 2012 году Стюарт Армстронг собрал оценки экспертов, медианное значение этой выборки составило 2040 год.


ru.wikipedia.org

5
0
27 июня
22:28

Полностью сохраняю свою уверенность в том, что бояться следует ни в коем случае не машин, а того, как может использовать их человек. Да, технологии развиваются, да, в плане вычислительных способностей, принятия решений в определенной области, гибкости и способности к самообучению, многократно превышающей человеческую, машины остаются машинами. Искусственный интеллект робота не "изобрел собственный язык" по наитию, по собственной воле, ибо таковая отсутствует в принципе. Он сделал это, поскольку данную функцию запрограммировали в нем его проектировщики. Для того, чтобы машина/робот/программа реально представляла опасность для человечества (на манер Скайнет из Терминатора), необходимо, чтобы кто-то запрограммировал в нее мотивацию к деструктивным действиям. На данный момент машины являются инструментами, и все действия, выполняемые ими, являются заданными им людьми, которые работают над их созданием.

В узком смысле - опасаться можно уже и сейчас, любых машин, начиная от простого транспортного средства, обращение с которым без соблюдения простейшей техники безопасности либо при выходе из строя каких-то ключевых механизмов может привести (и приводит) к катастрофическим последствиям. Это фактор риска.

В случае же, если некий изобретатель сознательно заложит в машину мотивацию быть для человека опасной - то здесь уже вопрос должен возникать к самому изобретателю, но никак не к машине самой по себе.

0
0
Если вы знаете ответ на этот вопрос и можете аргументированно его обосновать, не стесняйтесь высказаться
Ответить самому
Выбрать эксперта