The Guardian: США мають зробити ШІ своїм наступним Манхеттенським проєктом
У книзі «Суперінтелект», яку оксфордський філософ Нік Бостром видав 10 років тому, він міркував про потенціал надрозумних машин та можливі наслідки їхньої розробки. Філософ припустив, що їх було б важко контролювати і вони могли б навіть захопити світ для досягнення своїх цілей (наприклад, для таких абсурдних як виготовлення скріпок). Незважаючи на великий успіх книги, дехто критикував Бострома за переоцінку можливостей «інтелекту» машин.
Зараз же зростає усвідомлення, що надінтелект наближається, а світ до нього не готовий, пише для The Guardian Джон Нотон, професор суспільного розуміння технологій у британському Відкритому університеті, аналізуючи нове 165-сторінкове есе американського експерта у сфері штучного інтелекту Леопольда Ашенбреннера, який співпрацював з OpenAI і нещодавно відкрив інвестиційну компанію, орієнтовану на AGI (універсальний штучний інтелект).
В есе п'ять розділів:
- перший описує шлях від GPT-4 (де ми зараз) до AGI (який, на думку Ашенбреннера, може з'явитися вже у 2027 році);
- у другому розділі простежується гіпотетичний шлях від AGI до реального надінтелекту;
- у третьому обговорюються проблеми, які надрозумні машини поставлять перед світом, зокрема екологічні ресурси для підтримки їхньої роботи та виклики щодо безпеки та мілітаризму;
- у четвертому розділі описується те, що автор називає проєктом, який необхідний для управління світом, оснащеним надрозумними машинами;
- п'ятий розділ – це послання Ашенбреннера людству щодо принципів «реалізму AGI».
Ашенбреннер вважає, що другу версію моделі штучного інтелекту ChatGPT виробництва компанії OpenAI можна порівняти з рівнем «дошкільника»; наступна версія – GPT-3 – стала «учнем початкової школи»; GPT-4 – це «розумний старшокласник», і значне збільшення обчислювальної потужності, ймовірно, призведе до того, що до 2028 року ми створимо «моделі, такі ж розумні, як доктори наук чи експерти, які можуть працювати разом з нами як колеги». Далі дуже швидко можливості ШІ мають вийти за межі людських, вважає Ашенбреннер.
На його думку, можна провести паралель між тим, на якому етапі впровадження штучного інтелекту, зокрема у військовій сфері, перебувають США зараз, і тим, на якому етапі технологічного розвитку вони перебували після першого у світі випробування ядерної зброї в рамках Манхеттенського проєкту, ненадовго випередивши СРСР. Зараз головним суперником вважається Китай.
Ашенбреннер рекомендує зробити лабораторії ШІ в США закритими, щоб звідти не сталися передчасні витоки інформації щодо розвитку штучного надінтелекту, та співпрацювати у процесі розробки з розвідниками та силами оборони.
«Лідерство Америки в галузі штучного інтелекту не забезпечить мир і свободу, якщо використовувати цю технологію для розробки лише розважальних мобільних додатків. Це некрасиво, але ми маємо створити ШІ для американської оборони», – каже він.
«Все, що потрібно – це новий Манхеттенський проєкт. І AGI-промисловий комплекс», – резюмує Нотон.
Тим часом американський мільярдер Ілон Маск, який також інвестує у розробку ШІ, вважає, що штучний інтелект перевершить людський уже в 2025 році.