Стівен Хокінг: ми пройшли точку неповернення

Стівен Хокінг вважає, що у людства незабаром не залишиться вибору, як покинути Землю і зайнятися пошуком нового будинку. З подібними заявами знаменитий фізик-теоретик вже виступав і раніше. На його думку, шанс на виживання у нас з вами з’явиться тільки в тому випадку, якщо ми перетворимося в міжпланетний вигляд, в іншому випадку ми будемо приречені на вимирання. В останньому інтерв’ю виданню WIRED Хокінг підкреслив, що ми вже перейшли так звану «точку неповернення».

В інтерв’ю він ще раз нагадав, що його думки про необхідність пошуку другого будинку для людей пов’язані відразу з двома причинами: перенаселенням планети і зовсім не ілюзорної, а цілком реальною загрозою розвитку штучного інтелекту (ШІ). Машини, на його думку, дуже скоро стануть настільки розумними, що в кінцевому підсумку вирішать «замінити» людство.

«Ми відкриваємо справжній ящик Пандори. Боюся, що ШІ зможе замінити всіх людей», — прокоментував Він виданню WIRED.

Це безумовно не перший раз, коли Хокінг лякає нас такими попередженнями. В інтерв’ю видавництву «Таймс» у березні цього року він також попереджав всіх про апокаліпсис і необхідність створення «нової форми світового уряду», яке змогло б тримати цю технологію під контролем. Крім того, фізик-теоретик висловлював занепокоєння про те, що ІІ зробить істотний вплив на обсяг вільних робочих місць для середнього класу, і навіть закликав до заборони розробки і використання штучного інтелекту у військових цілях.

Як би там не було, його попередження практично повністю ігноруються технологічними компаніями, залученими до створення та розвиток АЙ. Проте вже зараз деякі відзначають, що інтелектуальні машини починають поступово відбирати робочі місця, замінюючи живих людей, а в деяких країнах, включаючи США і Росію, переслідується мета створення озброєння, керованого штучним інтелектом. Чого гріха таїти, всі ми свого часу сміялися над російським роботом Федором (він же FEDOR, або Final Experimental Demonstration Object Research), розробленим НВО «Андроїдна техніка» і Фондом перспективних досліджень за замовленням МНС Росії. Проте на Заході люди до презентації цієї машини поставилися набагато серйозніше, адже російська розробка демонструє можливості, яких позбавлені навіть роботи Boston Dynamics — однієї з найбільш просунутих роботів компаній в світі. Федора позиціонують як робота-рятувальника, а також майбутнього космонавта, який повинен буде відправитися в космос на новому космічному апараті «Федерація» в 2021 році, але на Заході відзначають його явно бойовий потенціал.

В останні роки розробка ІІ стала дуже резонансною темою. Деякі експерти погоджуються з Хокінгом і висувають аналогічні аргументи, взяти хоча б того ж Ілона Маска і Білла Гейтса. Обидва бачать в розробці штучного інтелекту небезпеку для людства. Ряд експертів з «протилежного боку барикад» говорять про те, що подібні страхи в більшій мірі засновані на надуманих сценарії захоплення світу надрозумною ІІ, а тому дуже шкідливі, так як мають можливість негативно позначитися на сприйнятті громадськістю справжньої користі від ІЇ у майбутньому.

Хокінг, в свою чергу, непохитний і впевнений, що ці страхи мають під собою цілком реальну основу.

«Якщо люди можуть розробляти комп’ютерні віруси, то хтось виразно розробить ІІ, здатний самостійно еволюціонувати і повторити. Він зможе перетворити себе в нову форму життя, яка у всьому буде перевершувати людей», — прокоментував Він журналістам WIRED.

Тут Хокінг, швидше за все, говорить про розвиток ІЇ до людського рівня мислення або навіть перевищує цей рівень мислення. Іншими словами, він говорить про подію, що передбачають багато сучасні футурологи – технологічної сингулярності. Щодо того, коли, на думку Хокінга, це подія відбудеться, фізик-теоретик не запропонував жодних конкретних дат. Можна лише припустити, що мова йде про проміжку протягом 100 років, які нам виділив Хокінг для виживання на Землі.

Інші, такі як глава SoftBank Масаесі Сон і старший інженер Google Рей Курцвейл, припускають прихід сингулярності ще раніше – протягом найближчих 30 років.

Ми як і раніше перебуваємо дуже далеко від розвитку по-справжньому повноцінного штучного інтелекту. Стосовно сингулярності — це теж поки лише одне ворожіння на кавовій гущі. Принаймні з точки зору того, що ж ця сингулярність нам принесе. Чи стане це подія початком заходу для людства або, навпаки, ознаменує новий початок ери, в якій люди і машини будуть мирно співіснувати? У будь-якому випадку потенціал ИИ може використаний як для хороших, так і поганих цілей, тому непогано було б дотримуватися необхідний рівень безпеки.

Добавить комментарий