Як створюють робота, який захоче змінити світ?

Комп’ютерний вчений Крістоф Солдж намагається усунути необхідність у правилах, які керують поведінкою роботів. Його стратегія — дати їм мета: зробити нас більш могутніми. Крістоф працює в Game Innovation Lab при Нью-Йоркському університеті. Саша Маслов взяла інтерв’ю у Солджа для Quanta Magazine, з якого ми дізнаємося, що нам, можливо, зовсім не варто намагатися утримати нестримний потік технологічної сингулярності.

Знамениті три закони робототехніки Айзека Азімова — обмеження поведінки андроїдів і автоматів, необхідні для забезпечення безпеки людства — також були незавершеними. Ці закони спершу з’явилися в оповіданні Азімова в 1942 році, а потім в класичних роботах кшталт «Я, робот» і звучать приблизно так:

  1. Робот не може заподіяти шкоду людині або своєю бездіяльністю допустити, щоб людині було завдано шкоди.
  2. Робот повинен підкорятися наказам, отдаваемым людьми, якщо такі не суперечать Першому Закону.
  3. Робот повинен захищати своє існування, якщо цей захист не суперечить Першому або Другому Закону.

Звичайно, в цих законах можна знайти безліч протиріч і прогалин (чим, власне, користувався і сам Азімов). У наш нинішній століття просунутого програмного забезпечення з машинним навчанням і автономної робототехнікою, визначення та впровадження залізної етики штучного інтелекту стало актуальною проблемою для таких організацій, як Інститут досліджень машинного інтелекту і OpenAI.

Крістоф Солдж зробив інший підхід. Замість того щоб «зверху-вниз» нав’язувати філософські визначення того, як повинні або не повинні вести себе штучні агенти, Солдж і його колега Даніель Поляна досліджують шлях «знизу-вгору», або «що робот повинен робити в першу чергу», як написали у своїй статті «Розширення прав як заміна трьом законам робототехніки». «Розширення прав», концепція, народжена на стику кібернетики і психології, описує внутрішню мотивацію агента до одночасного опору і роботі в умовах навколишнього середовища. «Як організм, він хоче вижити. Він хоче залишити слід в світі», пояснює Солдж. Пилосос Roomba, запрограмований на пошук зарядної станції при розрядці батарей, — це рудиментарний приклад «розширених прав»: щоб продовжувати функціонувати в світі, він повинен отримати заряд і продовжити власне існування, тобто вижити.

Розширення прав може прозвучати як рецепт для отримання того результату, якого бояться прихильники безпечного штучного інтелекту начебто Ніка Бострома: потужної автономної системи, стурбованої тільки задоволенням власних інтересів і сходить з розуму в процесі цього. Але Солдж, вивчає людино-машинні соціальні взаємодії, задається питанням: що буде, якщо агент з розширеними правами «також буде займатися розширенням прав іншого? Потрібно, щоб робот не просто хотів залишатися в робочому стані — потрібно, щоб він також хотів підтримувати свого людського партнера».

Солдж і Поляна зрозуміли, що теорія інформації пропонує спосіб втілити це взаємне розширення в математичну базу, яку візьме на озброєння не-философствующий штучний агент. «Одним з недоліків трьох законів робототехніки є те, що вони засновані на мову, а мова у високій мірі двозначний», говорить Солдж. «Ми намагаємося знайти щось, що насправді можна буде виконати».

Деякі технологи вважають, що ШІ — це велика, навіть катастрофічна загроза існування людей. А ви?

Я утримаюся. Тобто я правда вважаю, що в даний час існує страх перед роботами і зростаючим впливом ІІ. Але, думаю, у короткостроковій перспективі ми, ймовірно, будемо більше стурбовані можливою зміною робочих місць, процесу прийняття рішень, втратою демократії, втратою конфіденційності. Не знаю, наскільки ймовірно поява нестримного ІІ найближчим часом. Але навіть якщо ШІ буде контролювати систему охорони здоров’я і видавати рецепти, нам варто подумати про етичні питання, що виникають у процесі його роботи.

Яким чином концепція розширення прав допоможе нам впоратися з цими проблемами?

Я думаю, що ідея розширення прав заповнює нішу. Вона не дасть агенту дозволити людині померти, але як тільки ви зможете втриматися на цьому порозі, вона буде підтримувати намір створювати додаткові можливості для вираження людини і впливу на світ. В одній з книг Азімова роботи просто в кінцевому підсумку помістять всіх людей в безпечні контейнери. Це було б небажано. Якщо наша здатність впливати на світ буде постійно поліпшуватися, я думаю, це буде набагато більш цікава для досягнення ціль.

Ви перевіряли свої ідеї віртуальних агентів в видеоигровой середовищі. Що сталося?

Агент, мотивований власними розширеними правами, ухилиться від снаряда і не впаде у яму, в загальному уникне будь-яку ситуацію, яка може привести до втрати мобільності, смерті або пошкодження таким чином, щоб зменшити його операциональность. Він просто буде триматися.

У зв’язці з гравцем-людиною, який також наділений розширеними правами, ми побачили, що віртуальний робот буде підтримувати певну дистанцію, щоб не перешкоджати руху людини. Він не заблокує вас, не стане на проході, щоб ви не могли пройти. Він буде триматися максимально близько до вас, щоб мати можливість допомогти. Це призводить до поведінки, при якому він може і брати ініціативу, і слідувати за чужий.

Наприклад, ми створили сценарій, в якому у нас був лазерний бар’єр, небезпечний для людини, але безпечний для робота. Якщо людина в цій грі наближається до лазерів, у робота з’являється більше стимулів для блокування лазера. Стимул посилюється, коли людина стає прямо перед бар’єром, немов наміряючись його перетнути. І робот фактично блокує лазер, стаючи перед людиною.

Виявляли ці агенти якесь ненавмисне поведінка, подібне до того, що випливає з трьох законів у книзі Азімова?

Спочатку поведінка було хорошим. Наприклад, віртуальний робот перехоплював супротивників, які намагалися вбити. Час від часу він міг стрибнути під кулю, якщо це був єдиний спосіб врятувати вас. Але що нас особливо здивувало, з самого початку, що він також дуже боявся людини.

Причина цього пов’язана з його «короткозорою» моделлю: по суті, він аналізує, як послідовності певних дій у два-три кроки можуть вплинути на світ, як для вас, так і для нього. Тому першим кроком ми запрограмували те, що гравець діє випадковим чином. Але на практиці це вилилося в те, що агент ставився до людини як до свого роду психопату, який міг у будь-який момент часу, наприклад, вистрілити в агента. Тому агенту доводилося дуже і дуже обережно вибирати положення, при яких людина не міг його вбити.

Нам потрібно було це виправити, тому ми змоделювали так зване припущення про довіру. По суті, компаньйон-агент діє, виходячи з припущення, що людина буде вибирати тільки ті дії, які не будуть обмежувати розширені права самого агента — мабуть, це більше підходить для компаньйона модель.

Ми також помітили, що якщо в грі у вас було, скажімо, 10 очок здоров’я, компаньйон не особливо переживав, якщо ви втрачали вісім або дев’ять цих очок — він міг навіть вистрілити в вас разочок, просто заради жарту. І тоді ми зрозуміли, що є розрив між світом, в якому ми живемо, і моделлю у комп’ютерній грі. Як тільки ми змоделювали обмеження здатності, викликані втратою здоров’я, проблема зникла. Її також можна було вирішити, створивши не таку короткозору модель, яка могла б прораховувати дії ще на пару кроків у майбутнє. Якби агент міг заглянути далі в майбутнє, він побачив би, що мати більше очок здоров’я може бути корисним для майбутніх подій.

Беручи до уваги, що зміна кількості очок здоров’я ніяк на позначається на моїх розширених права, агент вирішує: «Стріляю я в нього, не стріляю — яка різниця?». І іноді стріляє. Що, звичайно, є проблемою. Я не хочу випадкових пострілів у гравців. Ми додали виправлення, щоб віртуальний робот трохи більше турбувався про ваш стан, ніж про своє.

Як ви робите ці концепції точними?

Якщо розглядати агентів як системи управління, їх можна розкласти на інформаційні складові: у світі щось відбуваються і так чи інакше тебе стосується. Ми говоримо про інформацію як про речі, які ви сприймаєте, а як про впливах будь-якого роду — це може бути речовина, щось протікає між світом і вами. Може бути температура або поживні речовини у вашому тілі. Будь-яка річ, яка перетинає кордон між світом і агентом, переносить інформацію. Точно так же агент може впливати на зовнішній світ різними способами, також виводячи в нього інформацію.

Можна розглядати цей потік пропускну здатність каналу, це концепція теорії інформації. У вас можуть бути широкі повноваження, розширені права, якщо ви здатні робити різні дії, які призводять до різних результатів. Якщо щось піде не так, ви втратите своїх повноважень, тому що втрата здатності відповідає кількісного зменшення пропускної здатності каналу між вами і навколишнім середовищем. Це основна ідея.

Скільки повинен знати агент, щоб його розширені повноваження діяли в повній мірі?

Розширені права мають переваги в тому, що їх можна застосовувати навіть тоді, коли ви не володієте повним знанням. Агент дійсно потребує моделі того, як його дії будуть впливати на світ, але йому не потрібне повне розуміння світу і всіх його тонкощів. На відміну від деяких підходів, які намагаються змоделювати всі в світі, наскільки це можливо, в нашому випадку потрібно лише з’ясувати, як ваші дії впливають на ваше ж сприйняття. Не потрібно дізнаватися все про все; потрібен лише агент, який досліджує світ. Він щось робить і намагається зрозуміти, як його дії впливають на світ. Модель зростає, а агент все краще і краще розуміє, куди тягнуться межі його повноважень.

Ви перевіряли його у віртуальному середовищі. Чому не в реальному світі?

Головною перешкодою масштабування цієї моделі і того, щоб помістити її в реального робота, є складність розрахунку пропускної здатності каналу агента і людини в такій багатій середовищі, як реальний світ, надовго вперед. Всім цим процесам ще тільки належить стати ефективними. Я оптимістично налаштований, але поки ця проблема залишається чисто обчислювальної. Тому ми перевіряємо роботу системи в комп’ютерній грі, у спрощеній формі.

Схоже, розширення прав і можливостей, в ідеалі, зробить наші машини потужними службовими собаками.

Я навіть знаю деяких робототехніків, які свідомо моделюють поведінку компаньйона на основі собак. Думаю, якщо роботи будуть ставитися до нас, як наші собаки, в цьому майбутньому всі ми зможемо ужитися.

Добавить комментарий