...

Ученые предупреждают, что управлять сверхразумным искусственным интеллектом будет невозможно

[ad_1]

На этой неделе мы узнали, что Tesla планирует производить тысячи гуманоидные роботы, согласно новому списку вакансий для программы Tesla Bot. Поскольку научная фантастика десятилетиями обещает нам летательные аппараты и роботов-дворецких, люди не воспринимают всерьез технологические компании, рекламирующие роботов-гуманоидов. Когда Илон Маск привел танцора, одетого как робот, на сцену, чтобы объявить о программе Tesla Bot на Tesla AI Day в прошлом году, это не помогло людям воспринять ее всерьез; многие восприняли это как шутку и не поверили, что Тесла серьезно занимается разработкой робота-гуманоида.

Однако Маск дал понять, что программа роботов-гуманоидов стала приоритетом для Tesla. В обновлении дорожной карты продукта в начале 2022 года Маск сказал, что Tesla отдает приоритет разработке робота-гуманоида Optimus в 2022 году, а не запуску нового продукта, который был перенесен на 2023 год. С тех пор Маск неоднократно заявлял, что люди не ценят ценность, которую Tesla Bot может принести миру. Он даже сказал, что это может полностью изменить мировую экономику. И это привело к тому, что Илона Маска стали сравнивать с тем самым Антихристом. И, может быть, они не совсем неправы.

неуправляемый ИИ

Ученые из Общества Макса Планка, известного европейского исследовательского института, говорят, что человечество никогда не сможет контролировать сверхразумный искусственный интеллект, который мог бы спасти или уничтожить человечество. Согласно расследованию опубликовано на прошлой неделе в научном журнале Journal of Artificial Intelligence Research. нет возможности содержать такой алгоритм без гораздо более продвинутой технологии чем то, что мы можем построить сегодня.

искусственный интеллект - Ученые предупреждают, что управлять сверхразумным искусственным интеллектом будет невозможно

Команда в основном сосредоточилась на вопросе модерации. Если всемогущий алгоритм каким-то образом решил, что это должно навредить людям или, в более «терминаторском» стиле, полностью уничтожить человечество, как мы можем помешать ему действовать?

Предлагают построить своего рода «алгоритм сдерживания» чтобы имитировать поведение опасного алгоритма и заблокировать его от причинения вреда, но поскольку алгоритм сдерживания должен быть не менее мощным, чем первый, чтобы сделать это, ученые заявили, что проблему было невозможно решить.

теоретический аргумент

Это все теоретические рассуждения. До искусственного интеллекта (ИИ), достаточно развитого, чтобы угрожать человечеству, вероятно, еще далеко, но очень умные люди очень много работают чтобы получить это. Конечно, это идеальная тема для обсуждения заранее: мы хотели бы знать об опасности до того, как она наступит.

«Сверхразумная машина, управляющая миром, звучит как научная фантастика». говорится в пресс-релизе Мануэль Себриан, директор группы цифровой мобилизации Центра людей и машин Института человеческого развития им. Макса Планка и соавтор исследования. «Но уже есть машины, которые выполняют определенные важные задачи независимо друг от друга, причем программисты полностью не понимают, как они их изучили. Поэтому возникает вопрос, может ли это стать неконтролируемым и опасным для человечества в какой-то момент».

Неудержимый ИИ вот-вот будет создан

Хотя профессор Себриан отмечает, что предстоит пройти еще долгий путь, прежде чем ИИ станет угрозой для человечества, реальность может быть совсем другой. Ученые подсчитали, что сверхразумный ИИ может быть создан за несколько десятилетийТем не менее, он уже превосходит людей в компьютерных играх, таких как шахматы, Go и Jeopardy!, поэтому есть некоторые опасения, что он может стать более разумным, чем человеческий разум.

невозможно управлять искусственным интеллектом - Ученые предупреждают, что управлять сверхразумным искусственным интеллектом будет невозможно

Профессор Мануэль Альфонсека из Автономного университета Мадрида, который также был главным исследователем исследования сверхразумного ИИ в 2021 году, объяснил, что оно восходит к первому закону закона робототехники. Исаак Азимов опубликовано в 1940-х годах. Его первый закон гласит: «Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред».

Однако этот закон не может быть установлен, если люди не понимают сценариев, которые может генерировать ИИ. Ученые заявили, что как только компьютерная система заработает на уровне, недоступном для человека, будет проблемой установить границы. Ник Бостромфилософ и директор Института будущего человечества в Оксфордском университете, в 2014 году наметил два возможных решения проблемы сверхразумного ИИ. Во-первых, контролировать то, что ИИ может делать. мешает вам подключиться к Интернету и второе решение — контролировать то, что он хочет делать, обучая его правилам и ценностям, чтобы он действовал в лучших интересах человечества. Нам придется подождать, чтобы узнать, сочтет ли ИИ нас угрозой для человечества.

Думаете, мы не сможем управлять искусственным интеллектом?

[ad_2]

Source link

(Посещений всего:9 times, 1)

Вячеслав

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Next Post

Маск заявил, что Starlink будет активирован в Иране в ответ на заявление госсекретаря США

Пн Сен 26 , 2022
[ad_1] На официальном брифинге казначейства ранее в пятницу говорилось, что система Starlink коммерческого уровня, которая потребует отправки оборудования в Иран, не будет подпадать под действие общей лицензии. Представитель министерства финансов заявил в своем заявлении: «Это то, о чем им нужно будет написать в министерство финансов». Связаться с Маском для комментариев […]

Вам может понравиться

Серафинит - АкселераторОптимизировано Серафинит - Акселератор
Включает высокую скорость сайта, чтобы быть привлекательным для людей и поисковых систем.