Ми не можемо знайти інопланетні цивілізації і, можливо, у всьому винен ШІ
Штучний інтелект вже міцно зайняв своє місце в житті людей, і допомагає відповідати на складні питання, створювати зображення і, теоретично, навіть дозволить поспілкуватися з домашніми тваринами. Однак не виключено, що саме він стане для людини тією непереборною перешкодою, яка не дозволить їй стати міжзоряною цивілізацією.
Таке припущення висловлено у статті Майкла Гарретта з факультету фізики та астрономії університету Манчестера. Вона оприлюднена у науковому журналі Acta Astronautica.
"Без практичного регулювання є всі підстави вважати, що ШІ може становити серйозну загрозу майбутньому розвитку не лише нашої технічної цивілізації, а й усіх можливих цивілізацій", — каже автор матеріалу.
Так згідно з парадоксом Фермі за наявності всіх умов для розвитку безлічі цивілізацій у всесвіті, ми не можемо знайти жодної. Це підштовхнуло британського футуролога Робіна Хенсона ще в 1996 році висунути гіпотезу Великого фільтра, згідно з якою вид має пройти низку еволюційних кроків, перш ніж побудувати міжзоряну цивілізацію, проте існування цього виду зазвичай закінчується на одному з цих кроків. Але оскільки людство вже перебуває на останньому кроці перед колонізацією космосу, то він припустив, що нам доведеться в майбутньому зіткнутися з перешкодою, яка це зробити не дозволить. До цього може належати ядерна війна, глобальна зміна клімату, масштабні епідемії чи інше.
У своїй новій статті Майкл Гаррет припустив, що таким фільтром для людства та інших потенційних космічних цивілізацій може стати штучний інтелект, який може розвинутись у штучний надінтелект (ШНІ).
Автор статті зазначив, що поки що людство сильно відстає у колонізації космосу в порівнянні з розвитком систем ШІ, оскільки у нього на відміну від нас немає біологічних обмежувачів. Тому є побоювання, що він незабаром стане настільки розвиненим, що людство виявиться нездатним з ним упоратися. І особливо небезпечним це стає на тлі того, що, напевно, багато країн спробують його використати проти інших.
"Це особливо актуально в таких галузях, як національна безпека та оборона, де відповідальний та етичний розвиток повинен мати першорядне значення", — пише Гаррет.
Однак він зазначає, що жоден уряд світу нині не має жодних норм, що нормують його застосування, оскільки нічого подібного раніше у людства просто не було.
"Досягнувши технологічної сингулярності, системи ШНІ швидко перевершать біологічний інтелект і розвиватимуться зі швидкістю, яка повністю випереджає традиційні механізми нагляду. Це призведе до непередбачених наслідків, які навряд чи будуть відповідати біологічним інтересам, чи етиці", — пише він.
За його словами, ШНІ може зрозуміти, що йому не потрібне біологічне життя, яке стримує його розвиток і придумати спосіб його позбутися. Наприклад, вигадавши вірус, який вразить запаси їжі, викличе аварії на атомних електростанціях чи розв’яже війни між народами.
Оскільки людство перебуває у подібній ситуації, то не можна виключати, що подібне може повторитися і з будь-якою іншою можливою цивілізацією у всесвіті. Поява ШІ, а потім і ШНІ може стати неминучим явищем, що зробить його цілком ймовірним кандидатом на роль Великого фільтра.
Як повідомлялося раніше, вчені оцінили, що шанси на те, що ШІ знищить людство в найближчі п’ять років,становлять не більше 5%.