Південнокорейському інституту оголосили бойкот за розробку озброєнь на базі ІІ

Понад 50 провідних експертів в області розробки штучного інтелекту повідомили про намір бойкотувати Корейський інститут передових технологій (KAIST) – престижний і ведучий навчально-дослідницький університет Південної Кореї — за створення лабораторії з розробки озброєнь з використанням штучного інтелекту. Про це вони повідомили у відкритому листі.

Обурення експертів галузі ШІ викликало також і підписана KAIST угоду з збройової компанією Hanwha Systems, яка, як повідомляють різні джерела, вже займається розробками потужних видів озброєння, в числі яких, крім іншого, є касетні авіабомби, заборонені згідно з Конвенцією ООН по касетні боєприпаси (Південна Корея цю конвенцію не підписала).

«У той час як Організація Об’єднаних Націй веде обговорення питання про те, як стримати загрозу для міжнародної безпеки з боку автономних видів озброєння, викликає жаль той факт, що такий престижний університет, як KAIST, шукає способи прискорити гонку озброєнь через нові розробки подібних типів озброєння», — пишуть експерти ІІ у своєму відкритому листі.

«Тому ми публічно заявляємо, що будемо бойкотувати всі види співпраці з будь-якими підрозділами KAIST до тих пір, поки президент KAIST не надасть запевнення в тому, що центр не буде займатися розробками автономних видів озброєння, функціонування можливе без значної участі людини».

KAIST має в своєму розпорядженні одні з кращих у світі робототехнічні і наукові лабораторії: тут проводяться дослідження і розробки самих різних просунутих технологій, починаючи від рідких батарей і закінчуючи медичним обладнанням.

Глава KAIST Сін Сон Чоль сказав, що він засмучений рішенням про бойкот, додавши, що інститут не збирається створювати роботів-вбивць.

«Як академічну установу, ми дуже цінуємо людські права та етичні стандарти. KAIST не збирається проводити дослідницьку діяльність, що суперечить принципам людської гідності, в тому числі і вести розробку автономного озброєння, що не потребує людської контролю», — прокоментував Сін Сон Чоль у своїй офіційній заяві з приводу бойкоту.

З огляду на настільки швидкі темпи розвитку апаратних і програмних засобів, багато експертів стурбовані тим, що рано чи пізно ми створимо щось, що будемо не в змозі контролювати. Ілон Маск, Стів Возняк, недавно спочилий Стівен Хокінг і багато інших вельми видатні постаті у сфері IT-технологій в свій час закликали уряди країн і ООН накласти обмеження на розробки систем озброєння, керованих ІІ.

На думку багатьох, якщо ми прийдемо до ракет і бомб, функціонування яких стане можливе незалежно від людського контролю, то наслідки можуть бути жахливими, особливо якщо такі технології потраплять не в ті руки.

«Створення автономного озброєння призведе до третьої революції у військовій справі. Подібні технології дозволять вести більш стрімкі, руйнівні і масштабні військові конфлікти», — зазначають автори відкритого листа.

«Ці технології мають потенціал перетворення в зброю терору. Диктатори і терористи зможуть використовувати їх проти невинних груп населення, ігноруючи будь-які етичні аспекти. Це справжній ящик Пандори, закрити який, у разі його відкриття, буде практично неможливо».

Члени ООН збираються провести наступного тижня нараду, на якій планується обговорити питання, пов’язані з забороною летального автономного озброєння, здатного вбивати без участі людини. До речі, це буде вже далеко не перша подібна зустріч, однак учасники обговорення так і не дійшли до якої-небудь угоди. Одна з проблем, яка стоїть на шляху прийняття якихось конкретних рішень, полягає в тому, що деякі країни якраз зовсім не проти ведення розробок подібних технологій, оскільки ті зможуть підвищити їх військовий потенціал. Каменем спотикання стають і приватні компанії, які активно опираються контролю з боку урядів за розробками їх власних моделей систем штучного інтелекту.

Здавалося б, багато хто згоден з тим, що роботи-вбивці – це погано. Проте вжити якихось конкретних рішень у відношенні того, що ж робити з їх розробкою, поки не виходить. Цілком можливо, що розробка нових систем озброєння, якої планує зайнятися KAIST, змусить більше сторін прийняти участь в необхідному обговоренні проблеми.

Багато вчені закликають до створення рекомендаційних інструкцій, що регулюють питання розробки і розгортання ІІ-систем. Тим не менш висока ймовірність, що навіть при наявності їх буде дуже складно стежити за тим, щоб кожна сторона їх дотримувалася.

«Ми зациклені на гонці озброєнь, якої нікому не хочеться. Дії KAIST тільки прискорять цю гонку озброєнь. Ми не можемо терпіти це. Я сподіваюся, що цей бойкот підвищить актуальність у необхідності обговорення даного питання в ООН у понеділок», — прокоментував професор з штучного інтелекту австралійського Університету Нового Південного Уельсу Тобі Уолш, також підписав лист.

«Це ясний звернення до спільноти, що займається розвитком технологій штучного інтелекту і робототехніки — не підтримувати розробки автономних видів озброєння. Будь-які інші інститути, які планують відкрити подібні лабораторії, повинні подумати двічі».

Добавить комментарий