7Мар

Возможные опасности искусственного интеллекта
Главная » Блог Acmee » Возможные опасности искусственного интеллекта
Нейронная сеть

ИИ внедряется в различные сферы деятельности и все глубже проникает в нашу жизнь. Чем больше задач выполняют машины, тем больше мы доверяем им. Но есть риск попасть в ловушку, когда ИИ перестанет быть безобидным помощником. Машины, захватывающие мир, — один из распространенных сюжетов поп-культуры. ИИ здесь часто имеет подобие личности, характера, мировоззрения и даже свою философию.

Но реальная опасность, какой ее видят современные техноскептики, в другом. ИИ может стать опасным не из-за собственного комплекса превосходства, а из-за ошибок человека при его проектировании. “Мы строим оптимизирующие машины, даем им задачи, и они их решают, — пишет специалист в области искусственного интеллекта Стюарт Рассел. — Машины разумны настолько, насколько можно ожидать, что их действия приведут к поставленным целям. Но что, если цель будет поставлена неверно?”

В 2003 году философ Ник Бостром описал следующий мысленный эксперимент. Предположим, люди создали суперинтеллектуального робота, запрограммированного на одну задачу — изготавливать канцелярские скрепки. Робот обучается с помощью системы подкрепления и со временем делает свою работу все лучше и лучше. В какой-то момент он понимает, что для дальнейшего роста производства ему нужно превратить всю планету в огромную фабрику, пустив в дело все ее ресурсы.

Чем больше власти получает ИИ, чем больше ресурсов находится под его контролем и чем более обширны его задачи, тем больше рисков, что его действия начнут представлять опасность для человека. В 1960 году профессор Массачусетского технологического института Норберт Винер написал статью “Некоторые нравственные и технические последствия автоматизации”. Вот как он сформулировал ее главную мысль: “Если мы используем для достижения своих целей механического посредника, в действие которого не можем эффективно вмешаться, нам нужна полная уверенность в том, что заложенная в машину цель является именно той целью, к которой мы действительно стремимся”.

Но такая уверенность недостижима, считает Стюарт Рассел. Задавая машине цель, мы не можем учесть и правильно взвесить все цели, подцели, исключения и оговорки или даже всего лишь определить, какие из них правильные. Отправляя ее перерабатывать информацию, мы не можем просчитать все решения, которые она примет. Последствия одного нечетко прописанного условия при взрывном росте возможностей ИИ смогут радикально изменить нашу жизнь.

По мнению Рассела, сдерживающим фактором могла бы послужить заложенная в машину неуверенность, которая требовала бы вмешательства человека. ИИ в этом случае стремится понять, в какой момент стоит прекратить выполнение задачи и обратиться к человеку. Однако этот подход тоже далек от совершенства. Ведь мнение одного человека по конкретному вопросу — это только самый простой пример. Как быть с ожиданиями общества, которые требуют согласования множества желаний? С решениями, которые нужно принимать быстро? С теми процессами, которые недоступны пониманию большинства людей? Другими словами — на кого будет ориентироваться машина, если ее уровень владения информацией станет несоизмеримо выше, чем средний человеческий?

Тем не менее подход Рассела пока видится довольно удачным решением и набирает популярность. И, по мнению Йошуа Бенжио, научного руководителя монреальского института Mila — одного из ведущих в области исследования ИИ, его вполне можно реализовать. Но для этого нужны не только усилия разработчиков и теоретиков ИИ. Людям нужно лучше понять самих себя — какие ценности важны, а какие второстепенны; что стоит положить в основу стратегий развития общества; есть ли такие состояния, в которых существование человечества оптимально, и что считать отклонениями от них.

По материалам tass.ru.



Рассчитаем стоимость разработки вашего проекта



Введите email

Ваше имя

Связаться с нами

×
×
×