Информационно-развлекательный портал в Литве, по-русски, Vilnius, 18
04, 2024 www.topic.lt - Romanas (R.K. Frimen)

Topic.lt
 2024-04-18 04:30
Loading... (Longer if IE explorer)

Контакты
Наши RSS
website stats
По материалам:
Новое в интернете


Спонсоры.


В помощь
Как и Что? FAQ


www.PigiauNerasi.lt
Из Топика » Познай МИР » Боевые роботы наступают!(5 фото)
Боевые роботы наступают!(5 фото)

+ - = Не вижу ФОТО!

Настоящие роботы-убийцы, неумолимо выполняющие задачу и не требующие надзора человека, могут появиться на вооружении армий мира уже через год, говорят эксперты. Предвидя здесь опасность, специалисты обсуждают, не следует ли заранее запретить роботов-убийц и их использование на поле боя.

Боевые роботы наступают! военные, война, наука, роботы, роботы убийцы, терминаторы, техника, технический прогресс

Боевые роботы наступают! военные, война, наука, роботы, роботы убийцы, терминаторы, техника, технический прогресс

Источник:

Роботы-убийцы могут оказаться на вооружении в войсках уже через год, если ООН заранее не предпримет мер по ограничению их использования, утверждает профессор Шеффилдского университета Ноэль Шарки. По его мнению, эти машины неизбежно станут причиной массовых невинных смертей, поскольку не могут отличить военного человека от гражданского нонкомбатанта. Его заявление прозвучало как раз в то время, когда экспертное сообщество из 120 стран обсуждает в Женеве потенциальные риски, связанные с работой автономных систем вооружений. Профессор Шарки считает: обсуждений мало, необходимо срочно принимать документ об ограничении производства роботов! Иначе уже год спустя роботы буквально наводнят армии развитых стран.

×

Боевые роботы наступают! военные, война, наука, роботы, роботы убийцы, терминаторы, техника, технический прогресс

Источник:

В эти дни в Женеве представители более чем 90 стран мира обсуждают опасность, которая исходит от "летальных автономных систем вооружений". Один из важных вопросов обсуждения - как обеспечить безопасность их применения в боевой обстановке? Многие эксперты, включая профессора Шарки, настаивают на том, что , несмотря на автономность систем, человек должен постоянно иметь возможность "принципиального контроля" над ними - ради безопасности человечества. "Робот все равно не в состоянии принимать решения, как человек, - говорит профессор Шарки. - Он не в состоянии полностью. постигнуть логику боевых действий, может не отличить союзника от противника и принимать решение о допустимости тех или иных действий. "Мы не можем позволить роботу решать, стоит ли жизнь, к примеру, Осамы бин Ладена того, чтобы вместе с ним погибли 50 старушек и 20 детей, - говорит Шарки. - Роботу это безразлично. Принципиальные решения, к примеру, о выборе цели должен осуществлять человек". По мнению профессора Шарки, если такие решения будут отданы на откуп роботам, "последствия их применения будут не менее разрушительны, чем использование химического оружия".

Боевые роботы наступают! военные, война, наука, роботы, роботы убийцы, терминаторы, техника, технический прогресс

Источник:

Профессор Шарки стал одним из 57 экспертов, подписавших открытое письмо, адресованное Южнокорейскому университету, в котором специалисты выражают протест против программы разработки интеллектуальных вооружений. Корейский институт наук и высоких технологий Кайст в настоящее время начинает запуск этой программы совместно с производителем военной техники компанией Hanwa Systems, и эта новость всколыхнула научное сообщество. "Университет, научное учреждение, не может заниматься этим с моральной точки зрения", - считает профессор Шарки, с которым полностью согласны остальные подписанты.
По мнению экспертов, автоматические роботы-убийцы откроют ящик Пандоры, произведя третью революцию в ведении войны.
Представители института Кайст уже откликнулись на открытое письмо, уверяя коллег, что вовсе не планируют создавать дроидов в стиле "Скайнет".

Боевые роботы наступают! военные, война, наука, роботы, роботы убийцы, терминаторы, техника, технический прогресс

Источник:

Представители института Кайст заверили коллег, что они, как академическое учебное заведение, "высоко ценят общечеловеческие стандарты этики и морали" и не собираются разрабатывать роботов-солдат, работающих вне человеческого контроля. На сегодняшний день институт Кайст лишь проводит исследование в этой области. На этом авторы открытого письма успокоились и не стали подвергать коллег бойкоту. Однако вопрос о том, удастся ли человечеству договориться об общих принципах тотального контроля над действиями боевых роботов, до сих пр остается открытым. Между тем, он сегодня важен отнюдь не в теории. На сегодня высокофункциональные роботы уже являются настолько сложными механизмами, что даже специалисты не до конца понимают, как работает их искусственный интеллект. А не понимая этого полностью, они не в состоянии предсказать, когда именно он может дать сбой. "Если человечеству суждено быть уничтоженным, то, скорее всего, искусственный интеллект сыграет значительную роль в этом процессе", - говорит один из участников конференции в Женеве. По мнению Илона Маска, искусственный интеллект сегодня несет с собой больше угроз человечеству, чем Северна Корея. Маск убежден, что роботы должны находиться под постоянным строгим контролем человека, и многократно обращался к правительствам разных стран с призывом разработать четкие правила контроля над системами, обладающими искусственным интеллектом.

Источник:



Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь.
Мы предлагаем Вам зарегистрироваться либо войти на сайт под своим именем.
















BangGood.com



Translate page:
Погода ?

«    Апрель 2024    »
ПнВтСрЧтПтСбВс
1234567
891011121314
15161718192021
22232425262728
2930 
Новости в Литве




 
rss rss facebook youtube twitter linkedin
www.Topic.lt
facebook
PinIt