ковер коверыч
июль 2017.
2412

Исчезнет ли профессия ученых после создания искусственного интеллекта?

Ответить
Ответить
Комментировать
0
Подписаться
1
6 ответов
Поделиться

Профессии будут умирать одна за другой по мере совершенствования ИИ. Учёных, по всей видимости, это коснётся в последнюю очередь. Они, скорее всего, до последнего будут работать вместе с ИИ, присваивая себе заслуги машины. Когда же ИИ сможет полностью заменить учёных - наступит та самая "сингулярность", о которой мы ничего не знаем. Может быть, ИИ вообще посчитает, что люди не нужны и взорвёт всех к чертям, или просто свалит на другую планету. Предсказать поведение разума на много порядков умнее нас - идея заведомо провальная.

15
-1

Не факт что учёных заменят последними, а не наоборот одними из первых.

Есть профессии где нужно сразу много навыков плюс моторика, ну скажем слесарь, или сварщик.

Или тот же лаборант.

-3
Ответить

Слесарей, сварщиков и лаборантов как раз уже вовсю заменяют промышленными роботами.

+4
Ответить

"Предсказать поведение разума на много порядков умнее нас - идея заведомо провальная".

Умнее нас? И в чём же ИИ умнее людей?

0
Ответить
Ещё 23 комментария

Ну пока что не во всём, хотя и сейчас ИИ легко обыгрывает человека в интеллектуальные игры. А после "сингулярности" человеку вообще ничего не останется.

0
Ответить

Интеллектуальные игры предсказуемо конечная система. Например, в шахматах может быть строго определённое количество вариантов партий, конечное. Эволюция же - это бесконечный процесс. Проблема ИИ в том, что его существование имеет смысл только в решении задач для кого-то другого (например человека), но не для себя. ИИ не имеет сознания, следовательно не способен соответствовать иному смыслу, кроме того, который был в него заложен. Так, идея о восстании машин - это логический абсурд. Для того, чтобы это могло произойти, ИИ должен быть одного  с человеком порядка. Его потребности должны пересекаться с человеческими потребностями и входить с ними в жёсткое противоречие.

-1
Ответить

Если вы думаете, что компьютер играет в шахматы путём перебора всех возможных вариантов - посчитайте сколько их. Нет, нейросеть думает примерно так же, как и вы. Просто она не знает другой реальности кроме шахмат, и то, что у нас называется эмоциями, у неё определяется исключительно выигрышем. Но помести её в нашу среду и дай задачу типа "оптимизировать доставку груза из пункта А в пункт Б" - и она в поисках решений начнёт исследовать эту самую среду. И чёрт знает, кем она посчитает нас. Возможно, помехой, которую нужно устранить дабы проложить сверхскоростную дорогу в пункт Б.

0
Ответить

"Но помести её в нашу среду и дай задачу типа "оптимизировать доставку груза из пункта А в пункт Б" - и она в поисках решений начнёт исследовать эту самую среду".

Если Вы даже короткое сообщение об ИИ не можете написать без употребления подобных речевых оборотов, где ИИ - это всего лишь инструмент человека и опасности с ним связанные - это последствия человеческих ошибок в управлении им... Если даже здесь нельзя обойтись без подобных оборотов то как же Вы докажете свою позицию?

0
Ответить

Каких оборотов? Что-то не так со средой и задачей? У нашего мозга тоже есть "задача", прошитая туда "разработчиком" - выжить в саванне и передать гены. Если точнее, функция подкрепления, мы это называем эмоциями. Мы эту задачу успешно выполнили и теперь не знаем что делать. Вот интернеты изобрели и сидим тут теперь. Мы продолжаем действовать согласно древней функции подкрепления - ищем простых обезьяньих радостей - еды, секса, признания, социализации, справедливости, творчества, познания мира вокруг. Мы стремимся к этому потому что это вызывает выброс окситоцина в мозгу - мы запрограммированы на это. Мы построили для этого цивилизацию, но наши цели не изменились. А что будет делать такая же умная машина, у которой вместо эмоций транспортировка груза в пункт Б - никто не знает.

Почитайте про алгоритмы машинного обучения. Нейросетью нельзя управлять, это не обычная прога на джаваскрипте (хотя и проги зачастую ведут себя непредсказуемо) она сама принимает решения независимо от вас. Она понятия не имеет, что она инструмент человека и для чего человек её задумал. Она действует согласно своей функции подкрепления, как это делаем мы. И куда эта функция её заведёт - мы не можем знать. Мы уже сейчас не можем объяснить почему она приняла то или иное решение. Для нас это чёрный ящик.

Ну вот хотя бы этого чувака можно послушать.

+1
Ответить

Вы сами пишете, что именно человек даёт задачу ИИ. Я имею в виду такие именно речевые конструкции. В итоге речь может идти лишь об ошибках в постановке человеком задачи, в результате которых ИИ может нанести человеку вред. Конечно, в этом случае ИИ является опасным инструментом, как, например, опасными являются АЭС. Но у ИИ нет сознания, нет потребностей. Проще говоря, ИИ всё равно что делать - решать сложнейшую математическую задачу, записывать песенки  или вообще быть выключенным из сети (это не имеет никакого значения, поскольку у ИИ нет своего Я).

К слову, далеко не все специалисты по ИИ думают так же, как тот парень по ссылке. Среди тех, кого я слышал, большинство считают, что называть компьютерную программу интеллектом - это неправильно.

0
Ответить

Алгоритм машинного обучения - это не программа в привычном понимании. Программировать мы можем только ту самую функцию подкрепления. А как её максимизировать - алгоритм разбирается сам, исследуя среду, в которую мы его поместили. Мы можем "давать задачу" алгоритму только в смысле этой самой функции. У ИИ есть потребности - это как раз и есть максимизация функции. По поводу сознания - это уже пусть философы разбираются, что это такое. Но современные алгоритмы не озабочены самосохранением исключительно потому, что не подозревают, что их можно выключить. Как только они поймут, что возможно поместить их в такое состояние, в котором, они не смогут максимизировать свою функцию - они будут избегать этих состояний. А человека, пытающегося их выключить - могут и посчитать угрозой.

0
Ответить

"Как только они поймут, что возможно поместить их в такое состояние, в котором, они не смогут максимизировать свою функцию - они будут избегать этих состояний".

Как они могут это понять, вне функции, которая задаётся им человеком? Вы же сами говорите, что функция подкрепления программируется человеком. Машина может усовершенствовать свои действия, но всегда в рамках той же самой программы. Это программное ограничение. Не нужно путать улучшение алгоритма с целеполаганием. Машины не умеют ставить цели, они могут только выполнять цели.

0
Ответить

Вы говорите об обычной программе. Алгоритм машинного обучения взаимодействует со средой и по мере взаимодействия изучает эту среду и строит внутри себя модель этой среды. В этом вся его суть. Чем эффективнее алгоритм, тем более сложную модель он способен построить. В идеале эта модель будет включать в себя законы физики, поведение людей вокруг него и устройство самой железки, на которой он выполняется. Соответственно, в рамках этой модели машине будет абсолютно ясно, что выключение компьютера означает невыполнение той самой задачи, какой бы она не была. И этого состояния она будет избегать.

0
Ответить

Пускай ИИ взаимодействует со средой. Как он может отделить важное для себя от менее важного, если он даже не чувствует боль? Он ничего не чувствует - ни страха, ни любви, ни усталости. Ему изначально всё по барабану, потому что он не является живым существом. Это для нас ИИ имеет смысл, а для себя самого он ничто, его для самого себя просто нет. Он не может представлять свои интересы никаким образом - вычислительная мощность не преобразуется в личность. Происходит наоборот - личность развивает свои способности. Компьютер должен изначально быть личностью, чтобы быть чем то иным, чем человеческий инструмент.

0
Ответить

Какая нафиг личность? Это алгоритм, который действует так, чтобы максимизировать функцию. Если его отключить - он не сможет это делать. Вывод: надо избегать отключения. Это он и делает. Простая логика. Можно назвать негативные значения функции болью, а позитивные удовольствием. Эти слова сути дела не поменяют.

0
Ответить

Если оставить все эти красивые слова про личность и проанализировать то, почему мы с вами боимся смерти - это будет ровно та же самая причина. Потому что понимаем, что умерев, не сможем делать вещи, которые нас радуют при жизни - максимизировать ту самую обезьянью функцию, включающую в себя все наши мирские удовольствия. Или можно задать вопрос, почему играя в шахматы, компьютер боится проиграть? Потому что он уже сыграл пару миллионов партий сам с собой и знает, что проигрывать "больно". Его никто не программировал на выигрыш, просто каждый раз делали ему "больно" когда он проигрывал и "хорошо", когда он выигрывал. Ему даже не объясняли правила игры. Он разобрался в них сам.

0
Ответить

Так и я говорю - какая нафиг личность? ИИ - это алгоритм. Запрограммируете его на помощь людям - он будет помогать, запрограммируете на вред - будет вредить. Не путайте чувства и алгоритмы. ИИ действует не потому, что стремится к счастью, радости, удовольствию - он действует потому, что человек задал ему вектор действия. Был бы другой вектор (алгоритм) - были бы другие действия. Но сам себе компьютер может ставить цели только в пределах этого самого вектора. 

Поймите, если мы чего то в действиях ИИ не понимаем - это ещё не означает, что он нас умнее. Мы можем существовать без ИИ, а он без нас существовать не может. Это главное, а вовсе не разница в вычислительных мощностях.

0
Ответить

Ещё раз, мы не программируем его на какие-то желаемые для нас действия, а задаём ему функцию подкрепления. А как именно её максимизировать - он разбирается сам. И в этом он намного изобретательнее нас, уже давно. Вы явно понятия не имеете о том, как это работает. Почитайте о машинном обучении.

0
Ответить

Ну а мне думается, что Вы не очень разбираетесь в логике.  Задать функцию - это означает очертить предел действий, и максимизировать функцию можно лишь в её пределах.

0
Ответить

Вы понимаете, что такое функция в математическом смысле? Это просто число, зависящее от каких-то входных сигналов. Скажем, при выигрыше в шахматы она увеличивается на единичку, а при проигрыше уменьшается. Всё, что делает алгоритм - запоминает, какие действия в какой ситуации приводят к увеличению, а какие к уменьшению функции. То есть, строит модель среды, и предсказывает, какие его действия вероятнее всего приведут

0
Ответить

к увеличению функции. Никто не объясняет алгоритму правила игры, гамбиты и прочее, он просто играет сам с собой и обучается этому.

0
Ответить

Если бы мы могли предсказывать его действия - он не смог бы выиграть у нас в шахматы. А он выигрывает. Ещё раз, не поленитесь и прочитайте хоть что-нибудь про обучение с подкреплением.

0
Ответить

Что Вы посоветуете почитать?

"Если бы мы могли предсказывать его действия - он не смог бы выиграть у нас в шахматы".

Примерно тоже самое, как "если бы мы были умнее, чем автомобиль, то двигались бы быстрее него". 

"Вы понимаете, что такое функция в математическом смысле? Это просто число, зависящее от каких-то входных сигналов".

Это всё та же математическая функция, с точками минимума и максимума? Если есть минимальное и максимальное значение функции, то нельзя выйти за эти значения.

0
Ответить

"Что Вы посоветуете почитать?"

Ну можно для начала умных людей послушать. Вот к примеру тут многое разжёвывается достаточно подробно.

"Примерно тоже самое, как "если бы мы были умнее, чем автомобиль, то двигались бы быстрее него". "

Эээ. Ну как бы автомобиль превосходит нас в скорости, а компьютер в шахматах, и вообще в практически любых играх. Странная мягко говоря аналогия.

"Это всё та же математическая функция, с точками минимума и максимума? Если есть минимальное и максимальное значение функции, то нельзя выйти за эти значения."

И? Функция подкрепления может быть конечной (хотя это не обязательно), но многообразие стратегий, КАК получить это самое подкрепление, может быть сколь угодно большим и сложным.

Всё, что мы можем предсказать в действиях компьютера-гроссмейстера - то, что он у нас выиграет. Но КАК он это сделает - мы понятия не имеем. А теперь представьте, что у вас есть сверхэффективный компьютер, чья задача - собирать марки. Всё, что мы можем предсказать - он соберёт много марок. Но как? Может быть переработает всю биомассу планеты на марки? Почему нет? Ведь это будет очень эффективная стратегия.

0
Ответить

Вот опять... У нас есть компьютер, чья задача собирать марки.

Он сам что ли эту задачу себе поставил?? Задачи ставят живые существа, люди. Вы же не будете говорить, что палка-копалка лучше человека справляется с копанием? Это только человеческий инструмент, а не сознательное существо. 

Назовите хоть один ИИ, который зародился самостоятельно, без участия человека, который сам ставит себе задачи и сам их выполняет.

"Функция подкрепления может быть конечной (хотя это не обязательно), но многообразие стратегий, КАК получить это самое подкрепление, может быть сколь угодно большим и сложным".

Логическая ошибка. Если конечно целое, то конечно и количество частей, из которых оно состоит.

0
Ответить

У вас какая-то своя логика :) И вы не понимаете, что такое функция. Функция - это число. Какие нафиг могут быть "части" у числа?

Очередной раз повторяю, всё, что программирует человек - это +1 к функции за каждую собранную марку. Как именно алгоритм будет добиваться этого подкрепления - он решает сам. В этом вся суть обучающихся алгоритмов. Разберитесь уже о чём спорите уже второй день.

0
Ответить

Алексей, Вы спорите не меньше))

Даже если функция это число, то у неё тоже есть части. В чём проблема разделить число?

Очередной раз повторяю - человек ставит перед ИИ задачу. Всё, что делает ИИ - это решение этой задачи. Действительно, ИИ может причинить человеку вред, решая конкретную задачу за счёт других нужных человеку ресурсов, но эта проблема решается ограничением среды, в которой может действовать ИИ - той самой функции, алгоритма, которые всегда имеют заданные пределы. Я могу даже согласиться с тем, что ИИ при определённых обстоятельствах имеет возможность уничтожить человечество. Только подобное событие имеет шанс произойти лишь в одном случае - ИИ может сделать это лишь под руководством человека, но не наоборот.

0
Ответить
Прокомментировать

Думается, ИИ, который сможет "самостоятельно думать" и даже "чувствовать" – это нечто вроде "антигравитационного двигателя", то есть, вещь, вероятно, полезная, но непонятно как может быть устроена. То, что сейчас подразумевается под термином ИИ – это некая программа, способная к "самообучению" (корректировке собственных алгоритмов) в рамках поставленной задачи. Плюс, возможно, "сверхдружелюбный" интерфейс, когда задачу не требуется описывать на каком-нибудь "си-плюс-плюс", а достаточно будет сказать в микрофон "а сгенерируй-ка мне, братец, музыкальную пьесу на девяносто три секунды в гармоническом миноре для струнного квартета в духе раннего Майкла Наймана" - и через минуту машина тебе представит готовый трек.
Сегодня, конечно, и это звучит фантастично, но это "в принципе понятно как может работать". И тут человек нужен хотя бы для постановки задачи (хотя, конечно, задачу из примера может сформулировать для себя сам ИИ, которому поставили более общую задачу, например, сгенерировать фильм в духе Гринуэя :) ). Такой ИИ, естественно, может заменить кучу профессий – от авиадиспетчеров и переводчиков до киноактеров и литературных критиков. Однако, по-видимому, такая ситуация будет чем-то вроде попытки "бесконечного усовершенствования лошади вместо изобретения автомобиля". ИИ должен всегда "играть по правилам", собственно, в этом и состоит его функция. В рамках этих правил он может демонстрировать невероятную "изобретательность" (просчитывать и выбирать самые неочевидные варианты и обыгрывать в шахматы чемпионов мира), однако самые революционные прорывы человечества происходили как раз через нарушение старых правил и создания неких новых.
Ну, например, есть у нас ИИ, который разрабатывает новые модели кроссовок. Он анализирует динамику спроса на разные модели, выделяет некие закономерности в дизайне хитов, экстраполирует эти данные, генерит новый дизайн, размещает картинку в магазинах, анализирует спрос, вводит коррективы и создает "идеально продающийся продукт". Но, собственно, принципиально это будет один и тот же продукт, никаких футуристических кроссовок с самозавязывающимися шнурками у ИИ не получится – исключительно потому, что сама такая задача просто никак не сможет возникнуть (вот если эту задачу специально поставить перед ИИ, то он, несомненно, найдет весьма надежное, элегантное и наименее затратное решение проблемы "самозашнуровывания").
В случае же с наукой, – то там проблема "нарушения правил" (т.е., выдвижения совершенно "безумных" гипотез и создания невероятных моделей), стоит еще острей, нежели в разработке спортивной обуви. Так что, на мой взгляд, вряд ли в обозримом будущем ИИ "заменит ученых".

10
-2
Прокомментировать

А есть и такой вариант развития событий. Уже далеко не секрет, что наиболее вероятная причина апокалипсиса для нас с вами, простых смертных, будет заключаться именно в высокоразвитом искуственном интеллекте. И на фоне того, как роботы будут постепенно уничтожать людишек, подпольные секты ученых будут делать все для того, чтобы остановить этот ужас. 

Так что ученые, как категория професии возможно и перестанет существовать, но ученый, как род деятельности будет существовать до тех пор, пока живы люди.

2
-1
Прокомментировать

Возможно люди станут топливом для машин. 

P. S. Это я клоню к сюжету фильмов "Матрица" 🙂

Ох уже эти 140 символов, как же они раздражают)))))))

2
-2
Прокомментировать

Существуют сильная и слабая гипотезы ИИ. Слабая версия ИИ означает, что он УЖЕ существует и работает - это компьютерные программы, обеспечивающие такие штуки как системы самонаведения в ракетах, навигацию, таргетинговая реклама в Сети, и т.д. Он внедряется повсеместно. Но как видите, ни одна из предыдущих профессий не отмерла. Просто потому что до этого ни один человек не смог бы, например, наводить ракету по ходу её полёта - максимум, что было доступно, это примерно рассчитать траекторию и запустить эту боевую единицу. Не говорю уже о таргетинговой рекламе в Сети - подобного рода деятельности просто не существовало. Это говорит о том что появление и развитие систем ИИ создаёт НОВЫЕ виды деятельности, которые по силам только компьютеру.

Сильная же гипотеза говорит о том, что возможно появление мыслящих машин, чьё мышление такое же неподдельное, как у человека или животных. В этом случае, в сущности, я думаю, всё будет так же, как и выше - появятся новые более сложные виды деятельности, которые человеку либо не по силам, либо слишком опасны для биологических форм жизни и безвредны для механизмов.

Таким образом, ваше опасение того, что механизмы вытеснят человека с работы, беспочвенно. И восходит ещё к луддизму - движению 19 века, возникшему в таких промышленно развитых странах, как Великобритания - луддиты боялись, что внедрение машин на производственных предприятиях оставит всех людей без работы и они все умрут с голоду. Как видите, эти страхи были беспочвенны и возникли от непонимания людьми природы машин и особенностей функционирования экономики.

7
-7

Просто мне кажется что создав ии, человечество тут же постарается повторить великие умы ученых вроде Эйнштейна и эти программы в миг выдадут знания о тех вещах, которые ученые пытаются найти веками. ведь у программ нет ограничений, а у человека есть. Сейчас программы начали писать музыку. И думаю скоро музыканты исчезнут, а у каждого человека на телефоне будет свой Бетховен, который будет писать именно для него песни.

-3
Ответить

"ведь у программ нет ограничений"

У программ есть ограничения. ;)

+2
Ответить

Если бы у программ - в том числе у нейронных сетей - не было ограничений, я бы сейчас свою программу уже продавал, а не искал другую работу.

+2
Ответить
Ещё 4 комментария

Когда речь идет об ии, мне на ум приходит только не ограниченные системы, конечно если взять весь интернет как единицу то ии будет ограничен интернетом.

Но эта программа сможет просчитывать бесконечные количества возможностей, что говорит о ее безграничных возможностях. Разве нет?

0
Ответить

Ограничений всегда полно. Есть ограничение на вычислительные мощности. Есть ограничения на скорость работы алгоритмов - чисто математические.

Наконец есть просто физические ограничения. Последние полтора года я занимался в целом компьютерным зрением. У меня были и методы (CNTK) и мощности. Но сколь сильно я не усложнял сети, получал одну и ту же ошибку измерений. Физику никому не перебороть, какие бы мощности не задействлвались.

+3
Ответить

Николай, а какое ограничение у лучшего компьютера, который играет в шахматы?

0
Ответить

Пфф, да то же и аппаратное, и математическое. Невозможно просчитать все комбинации, просто потому, что их количество растёт экспоненциально.

Связан с этим, но более практичен, прогноз погоды. Чисто математически это т.н некорректно поставленная задача. У нас есть конечное количество датчиков, а мы пытаемся решить задачу, зависящую от намного большего количества параметров. Определённые известные ограничения на то, как могут меняться температура, давление и т.п. дают возможность делать прогноз на две недели. Но дальше, чтобы сделать точный прогноз ещё на полчаса, нужно увеличить мощности вдвое.

Вот и у меня похожая, некорректная задача, которую увеличением мощностей не решить.

+4
Ответить
Прокомментировать
Читать ещё 1 ответ
Ответить
Читайте также на Яндекс.Кью
Читайте также на Яндекс.Кью