Експерти зі штучного інтелекту закликали ООН заборонити автоматизовані збройні системи

Більш як 100 провідних експертів бояться появи «роботів-убивць»

СвітРоман Ганкевич, 21 серпня 20177250
Експерти зі штучного інтелекту закликали ООН заборонити автоматизовані збройні системи
фото Getty Images
Вперше проблему виникнення «роботів-вбивць» обговорювали в ООН у 2015 році

Більше сотні провідних експертів і винахідників систем штучного інтелекту та роботизації закликали ООН вжити заходів, щоби запобігти розвиткові неконтрольованої автоматизації і «роботів-убивць». Про це інформує ВВС.

У листі до організації провідні фахівці у галузі штучного інтелекту, зокрема мільярдер Ілон Маск та один із засновників компанії DeepMind Мустафа Сулейман, який став ініціатором створення використаної Google нейронної мережі, попередили про можливу «третю революцію озброєння».

«Летальна автономна» технологія - це «скринька Пандори», і час тут має велике значення», - зазначається у листі 116 експертів, які закликають ООН заборонити використання штучного інтелекту для керування зброєю.

«Коли таку технологію розроблять, збройні конфлікти можуть розвернутися у такому масштабі, якого (людство) ще не бачило, і з часом розвиватимуться швидше, ніж це зможе усвідомити людина», - йдеться в листі.

Дослідники попереджають, що автоматизовані мілітарні системи можуть стати зброєю терору, яку деспоти і терористи використовуватимуть проти ні в чому неповинних людей. Окрім того, системи такої зброї можна буде зламати і використати у небажаних цілях. Лист експертів написаний стривоженим тоном і попереджає, що у людства «обмаль часу, щоби думати довго».

Експерти називають технологію автономного озброєння «морально неправильною» і закликають внести її до списку озброєнь, заборонених ООН. Зустріч групи ООН щодо автономного озброєння була запланована на понеділок, 21 серпня, однак її відклали до листопада. Раніше у комітетах ООН вже обговорювали можливу заборону на технологію «роботів-вбивць» - у 2015 році більше тисячі експертів, науковців та дослідників, зокрема Стівен Гокінг, Ілон Маск та співзасновник Apple Стів Возняк, опублікували лист, в якому попереджали про небезпеку застосування автоматизованої зброї.

Між тим, прибічники роботизованих систем озброєння впевнені, що чинних законів, які регулюють військові дії, цілком достатньо, аби вирішити будь-які проблеми, пов'язані із застосуванням технології. У разі виникнення непередбаченої ситуації, на технологію пропонують накласти мораторій, а не жорстку заборону.

Нагадаємо, на початку 2017 року депутати Європарламенту вперше заявили, що мають намір розглянути повний набір правил щодо взаємодії людей і систем штучного інтелекту та роботів.

Якщо Ви виявили помилку на цій сторінці, виділіть її та натисніть Ctrl+Enter
powered by lun.ua
Пропозиції партнерів
Загрузка...
Останні новини
Залиште відгук