Ученые говорят, что управлять сверхразумным ИИ будет невозможно

[ad_1]

Идея свержения человечества с помощью искусственного интеллекта обсуждалась десятилетиями, и в 2021 году ученые вынесли свой вердикт о том, можно ли контролировать высокоуровневый компьютерный сверхинтеллект.

Ученые заявили, что загвоздка в том, что для управления сверхразумом, который находится далеко за пределами человеческого понимания, необходимо будет смоделировать этот сверхразум, который можно анализировать и контролировать. Но если люди не способны этого понять, то создать такую ​​симуляцию невозможно.

Исследование было опубликовано в Журнале исследований искусственного интеллекта.

Такие правила, как «не навреди людям», не могут быть установлены, если люди не понимают, какие сценарии может предложить ИИ, говорят ученые. Как только компьютерная система работает на уровне, превышающем возможности наших программистов, тогда уже нельзя установить никаких ограничений.

«Сверхразум — это принципиально иная проблема, чем те, которые обычно изучаются под лозунгом «робоэтики». Это связано с тем, что сверхразум многогранен и, следовательно, потенциально способен мобилизовать самые разные ресурсы для достижения целей, потенциально непонятных человеку, не говоря уже о том, что ими можно управлять», — пишут исследователи.

Часть рассуждений команды исходила из проблемы остановки, поставленной Аланом Тьюрингом в 1936 году. Проблема остановки — данная программа/алгоритм когда-нибудь остановится или нет? Остановка означает, что программа при определенном вводе примет его и остановит или отклонит и остановится, и она никогда не войдет в бесконечный цикл. По сути, остановка означает прекращение.

Как доказал Тьюринг с помощью умной математики, хотя мы можем знать это для некоторых конкретных программ, логически невозможно найти способ, который позволил бы нам узнать это для каждой потенциальной программы, которая когда-либо могла быть написана. Это возвращает нас к ИИ, который в сверхразумном состоянии мог бы одновременно удерживать в своей памяти все возможные компьютерные программы.

Любая программа, написанная для того, чтобы не дать ИИ причинить вред людям и уничтожить мир, например, может прийти к выводу (и остановиться) или нет — математически невозможно быть абсолютно уверенным в любом случае, а это значит, что ее нельзя сдержать.

Ученые заявили, что альтернативой обучению ИИ некоторым этическим нормам и указанию ему не разрушать мир — в чем ни один алгоритм не может быть абсолютно уверен — является ограничение возможностей сверхразума.

«Исследование отвергло и эту идею, предполагая, что это ограничит возможности искусственного интеллекта; аргумент состоит в том, что если мы не собираемся использовать его для решения проблем, выходящих за рамки человеческих возможностей, то зачем вообще его создавать?

Если мы собираемся продвигаться вперед с искусственным интеллектом, мы можем даже не знать, когда появится сверхразум, неподвластный нашему контролю, такова его непостижимость. Это означает, что нам нужно начать задавать серьезные вопросы о том, в каком направлении мы идем». отметили ученые.

[ad_2]

Source link

(Посещений всего:8 times, 1)

Вячеслав

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Next Post

Происхождение человечества — великое историческое сокрытие

Вс Сен 25 , 2022
[ad_1] Официальная история человечества стала настоящей религией с догмой, от которой, если отклонишься, заставят замолчать. В эту ситуацию вносят свою лепту и католическая церковь и ислам, которые, конечно же, хотят держать нас в неведении и манипулировать нами угрозой Бога, который, если мы не уважаем религиозную догму, наказывает нас. К сожалению, […]

Вам может понравиться