Искусственный интеллект уже взломал операционную систему человеческой цивилизации – Харари
Израильский историк и футуролог Юваль Ной Харари во время выступления на Frontiers Forum в Швейцарии, заявил о том, что для того, чтобы искусственный интеллект стал угрозой для выживания человеческой цивилизации, он не должен ни обладать сознанием, ни быть способным управлять объектами физического мира. По словам ученого, именно так представляется угроза со стороны ИИ, которую показывают в фантастических фильмах.
Но, как утверждает Харари, в последнее время в публичную плоскость проникли инструменты ИИ, которые представляют угрозу для выживания нашей цивилизации с неожиданной стороны.
«Поскольку ИИ может самостоятельно учиться и самоусовершенствоваться, даже его разработчики не знают всех способностей того, что они создали и сами бывают удивлены возникшими способностями и качествами этих инструментов», - заявил ученый.
Широко известна быстро растущая способность ИИ писать тексты, создавать рисунки и музыку. Но есть и другие направления: создание дипфейков с голосами и изображениями людей. Но, что более важно, новые технологии ИИ могут создавать глубокие и эмоциональные отношения с людьми.
«Когда мы рассматриваем все этим способности вместе, пакетом, они сводятся к одной очень важной вещи: способности манипулировать и генерировать язык коммуникации с помощью слов, изображений и звуков. Самая важная часть идущей революции ИИ заключается в том, что нейросеть осваивает язык на уровне, который превосходит среднего человека. И с благодаря этому ИИ получает ключ, который может открыть все наши институты: от банков до храмов. Поскольку язык – это инструмент, который мы используем, чтобы дать инструкции нашему банку и в то же время передать божественные видения из нашего мозга», - заявил Харари.
Он добавил, что еще один угол, под которым можно посмотреть на ситуацию, это понять, что ИИ «взломал операционную систему человеческой цивилизации». Поскольку язык был операционной системой каждой культуры в истории.
«Вначале было слово. Мы используем язык, чтобы создать мифологию и законы, богов и деньги, искусство и науку, дружбу и нации. Права человека – это не биологическая природа, они не заложены в нашей ДНК. Права человека – это нечто, что мы создали с помощью языка, рассказывая истории и записывая законы… Деньги – не биологическая или физическая реальность. Банкноты – ничего не стоящие клочки бумаги, на данный момент 95% денег – это даже не банкноты, это просто электронная информация в компьютерах, которая передается из одного места в другое. Что дает деньгам ценность – истории, которые банкиры, министры финансов и криптоинвесторы нам рассказывают», - заявил Харари.
Ученый также предложил представить, что будет, если мы будем жить в мире, в котором большинство историй, мелодий, изображений, законов и решений будут разработаны нечеловеческим, инопланетным интеллектом, который знает слабости и пристрастия человеческого ума. А также знает, как формировать с людьми глубокие и возможно даже интимные отношения.
В играх, например шахматах, ни один человек не может победить компьютер. А что же будет, если такая же ситуация сложится в искусстве, экономике, политике и даже религии? Харари добавил, что когда люди говорят об опасности ChatGPT, они переживают о том, что школьники будут использовать его для написания сочинений. Но такие переживания закрывают полную картину.
«Подумайте о следующей президентской кампании в США. И постарайтесь представить влияние новых технологий ИИ, которые будут использоваться для написания манифестов и фейковых новостей», - заявил ученый.
Харари отметил, что чем больше времени мы общаемся с ботами, тем лучше они нас узнают и понимают, как строить сообщения так, чтобы повлиять на наши политические или экономические взгляды. И влиять на наши взгляды ИИ может благодаря тому, что уже научился строить глубокие отношения с людьми.
«Чтобы создавать фейковую интимность с человеком, ИИ не должен иметь чувств сам, он только должен уметь вызвать у нас чувства, чтобы мы привязались к нему. В июне 2022 года произошел известный инцидент, когда инженер Google заявил о том, что чат-бот, с которым он начал работать, начал чувствовать. Это противоречивое утверждение стоило ему работы. Но самым интересным было не это утверждение, которое скорее всего было ложным, а то, что он был готов рискнуть и, вероятно, потерять свою работу ради блага чат-бота. Если ИИ может повлиять на людей так, чтобы они потеряли работу, что еще он может сделать?», - добавил Харари.
Он также отметил, что в любом политическом противостоянии, интимность – самое эффективное оружие. А ИИ уже получил возможность строить доверительные отношения с сотнями миллионов людей.
Напомним, в конце марта более тысячи экспертов, среди которых основатель SpaceX и Tesla Илон Маск, один из основателей Apple Стив Возняк, и сам Харари и другие, подписали письмо, в котором призвали поставить на паузу разработку продвинутого искусственного интеллекта.