| Источник

Ведущие учёные, специалисты в области информационных технологий и предприниматели и разных стран разместили на сайте Future Life Institute открытое письмо с призывом не допустить создания «роботов-убийц». Речь идёт об автономных системах вооружения, работа над которыми тесно связана с вопросами морали и этики. Авторы письма уверены, что искусственный интеллект может стать последней революцией в методах ведения войны. Подробности в материале RT.

Развитие современных военных технологий всё чаще направлено на разработку оружия, работающего в автономном режиме. На этот раз предупреждение об угрозе создания боевых роботов прозвучало со стороны учёных. Более тысячи инженеров и исследователей подписали открытое письмо. Оно было представлено на ежегодной Международной конференции по искусственному интеллекту, которая прошла в Буэнос-Айресе. Среди подписавших документ — Тоби Уолш, профессор университета Нового Южного Уэльса и специалист в области искусственного интеллекта.

«Создание автономного наступательного оружия, которое мы призываем запретить, может спровоцировать очередную гонку вооружений, если ничего не предпринять. Некоторые утверждают, что эта технология может изменить способы ведения войны так же, как два предыдущих изобретения — порох и ядерная бомба. Разработку автономных видов оружия не остановить, но мы можем запретить компаниям-производителям его продавать. Так, например, ООН наложила запрет на использование ослепляющего лазера», — рассказал Уолш.

Среди подписавшихся — всемирно известные эксперты в области высоких технологий и робототехники.

Физик Стивен Хокинг опасается, что дальнейшее развитие искусственного интеллекта может стать последним значимым событием в истории человечества, если оно не поймёт, как избежать связанных с этим рисков.

Один из основателей Apple Стив Возняк уверен: велика вероятность того, что роботы поумнеют настолько, что будут думать за нас.

Тоби Уолш убеждён, что эту проблему должно решать общество в целом.

«Опасность заключается не в развитом искусственном интеллекте, а в недоразвитом. Мы ведь доверяем самые важные функции не самым умным программам. Есть гораздо более злободневные проблемы, чем те, что показаны в «Терминаторе» и других подобных фильмах. И их нужно решать сообща. Наша задача — объяснить людям, какие есть возможности использования боевой техники. А дальше мы должны подумать, как адаптировать нашу жизнь, наши законы и наше общество к изменениям, которые она принесёт», — заключил профессор.


Комментарии: 9 комментариев

  • Очередное «откровение» от Хокинга. Как буд-то это не очевидно, что сначала все идет в военку и военных в последнюю очередь интересуют подобные гипотетические угрозы, перед лицом угроз реальных. Да и не настолько они тупы, чтоб не понимать, любое оружие вещь обоюдоострая, за которой нужен контроль.

    Не знаю, кому как, а по мне, этот «ученый» становится слишком утомительным со своими «открытиями». В Голливуде, смотрелся бы органичнее, тем более мир оценивает по голливудским фильмам.

  • Бред. Быстрей все сдохнем прежде чем появится маленький намёк на ИИ.

  • Быстрее придумают универсальный разъём к затылку, мне кажется

  • Как нам всем страшна перспектива, того что в место нас засерать планету будет кто-то другой а не мы, такие белые и пушистые.

  • Проблема реально существует.  Как её решать в интересах человечества? См. в поисковиках статью: «Перспективы развития цивилизации».

    • Тридцать лет назад возможности сотовой связи все сочли бы за фантастический очерк?.

      • Если так, то нам всем пиз»№;ц.

        Пошёл делать салат на кухню, а там микроволновка нож точит и параллельно выкладывает твою квартиру на продажу в интернет.

  • Инвалиду не хватает внимания, про заявление об эфтаназии быстро забыли.. придумал новую херь.

Оставить комментарий

Представьтесь, пожалуйста