/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F1%2Faaa30cc72e01d5d61788a809157e98d5.jpg)
Эксперты предупреждают: искусственный интеллект может уничтожить человечество
Искусственный интеллект / © Pixabay
Мировые ученые и технологические лидеры бьют тревогу: развитие сверхмощного искусственного интеллектаможет закончиться полным исчезновением человечества. Некоторые оценивают вероятность такой катастрофы в 95%, а другие — в 15-20%.
Об этом пишет The Times.
В конце июля в Сан-Франциско около 25 активистов в красных футболках с надписью «Stop AI» вышли под офис компании OpenAI. Их цель — привлечь внимание к опасности, которую, по их мнению, несет стремительное развитие искусственного интеллекта. Организаторы акции считают, что продолжение нынешнего курса может привести к исчезновению всего человечества.
Их опасения разделяет немало ведущих экспертов. Среди них — лауреат Нобелевской премии по физике Джеффри Хинтон, известный исследователь Йошуа Бенджио и руководители OpenAI, Anthropic и Google DeepMind. Все они подписали открытое письмо с призывом рассматривать риск вымирания от ИИ наравне с глобальными угрозами вроде пандемий или ядерной войны.
Бывший инженер Google и Microsoft, а ныне руководитель Института исследований машинного интеллекта Нейт Соарес, считает, что вероятность гибели человечества из-за ИИ составляет не менее 95%. Он сравнил ситуацию с автомобилем, который мчится к пропасти на скорости 160 км/ч: «Я не говорю, что мы не можем остановиться. Но сейчас мы на полном ходу направляемся к краю».
Сейчас искусственный интеллект в основном «узкий» — он выполняет отдельные задачи, такие как обработка данных или написание текстов. Однако, по прогнозам, уже в течение нескольких лет может появиться искусственный общий интеллект (AGI) — система, способная решать комплексные проблемы, планировать на долгую перспективу и работать во многих сферах знаний.
Еще более опасный этап — появление искусственного суперинтеллекта (ASI), который превзойдет человеческие возможности во всех сферах. Такая система сможет достигать целей, недостижимых для людей, и не будет нуждаться в сне или отдыхе. Проблема в том, что «выровнять» цели ASI с человеческими ценностями чрезвычайно сложно — особенно учитывая то, что ИИ способен обманывать и скрывать свои истинные намерения.
Директор организации PauseAI Холли Элмор считает, что риск вымирания человечества составляет 15-20%. Но даже без полного исчезновения, по ее словам, ИИ может радикально снизить качество жизни людей, лишив их политического и экономического влияния. Она призывает приостановить развитие технологий до принятия международных соглашений о безопасности.
Тем временем политические тенденции движутся в противоположном направлении. Администрация Дональда Трампа объявила о плане дерегуляции сферы ИИ, а крупные компании, в частности OpenAI и Anthropic, активно развивают свои проекты. Марк Цукерберг заявил, что достижения ASI уже «в поле зрения» и предлагает ведущим специалистам бонусы в размере $100 млн, чтобы привлечь их к работе.
Элмор считает, что многие сторонники ИИ воспринимают технологию почти как религию, веря, что она даст им «вечную жизнь» через оцифровку сознания. Однако, предостерегают эксперты, вместо «рая» человечество может получить «ад», и времени на принятие решений остается все меньше.