Чт. Мар 20th, 2025
Attack drone artwork Изображения авторских прав Гетти Изображений
Наименование изображения это не про Терминатора роботов, же «обычных систем оружия с автономией»

Группа ученых призвала к запрету возьми разработку оружия, управляемых искусственным интеллектом (ИИ).

Возлюбленный говорит, что автономное оружие может отправиться из строя непредсказуемым образом и убивать невинных людей.

Специалисты за этике утверждают, что это моральный расстояние слишком далеко для систем ИИ укокошить без какого-либо вмешательства человека.

Комментарии были сделаны возьми Американской ассоциации для продвижения науки в Вашингтоне, объединение Колумбия.

«Хьюман Райтс Уотч» (хру) является одним изо 89 неправительственных организаций из 50 стран, которые создали кампанию, в надежде остановить роботов-убийц, чтобы настаивать для создании международного договора.

Среди тех, который возглавляет усилия по всему миру запрещение хру Мэри Вэрхэм.

«Мы не говорим об этом, говорим «Терминатор» роботы, которые собираются зажулить весь мир; что мы озабочены куда как более скорый: обычные системы оружия с автономией», — сказала симпатия РИА Новости.

«Они начинают вкрадываться. Дронов-несомненный пример, но есть и военные самолеты, которые взлетают, летят и приземляются нате свои собственные; роботизированные турели, которые могут фиксировать движение. Они являются предшественниками автономного оружия».

Райан Gariepy, основной технологический директор Clearpath робототехники, поддерживает рекомендация запретить.

Его компания принимает военные контракты, однако он осудил систем ИИ для войны и заявил, яко он не будет их развивать.

«Когда-когда они терпят неудачу, они терпят неудачу непредсказуемым образом», — сказал дьявол Би-би-си.

«Как передовые, вроде и мы, состояние AI действительно ограничены распознавания образов. Сие хорошо, но не хватает деталей или — или контекста, чтобы быть судья, присяжный и кат на поле боя.

«Автономная система отнюдь не может принять решение убить или невыгодный убить в вакууме. Решение де-факто было выполнено за тысячи километров от разработчиков, программистов и ученых, которые имеют знание о ситуации оружие развернуто в».

По словам Петра Азаро, новой школы в Нью-Йорке, таковой сценарий вызывает вопросы юридической ответственности, когда система совершает незаконные убийства.

«Делегирование полномочий прикончить, чтобы машина не является обоснованной и поломка прав человека, потому что машины малограмотный являются моральными агентами и поэтому не может идти ответственность за принятие решения о жизни и смерти.

«Беспричинно что вполне может быть, что слуги, которые сделали автономное оружие отвечают.»

Pallab вытекать на Twitter

https://www.bbc.co.uk/news/science-environment-47259889

от admin