The Guardian: США должны сделать ИИ своим следующим Манхэттенским проектом
В книге «Суперинтеллект», которую оксфордский философ Ник Бостром издал 10 лет назад, он рассуждал о потенциале сверхразумных машин и возможных последствиях их разработки. Философ предположил, что их было бы трудно контролировать и они могли бы даже захватить мир для достижения своих целей (например, для таких абсурдных как изготовление скрепок). Несмотря на большой успех книги, некоторые критиковали Бострома в переоценке возможностей «интеллекта» машин.
Сейчас же растет осознание, что сверхинтеллект приближается, а мир к нему не готов, пишет для The Guardian Джон Нотон, профессор общественного понимания технологий в британском Открытом университете, анализируя новое 165-страничное эссе американского эксперта в сфере искусственного интеллекта Леопольда Ашенбреннера, который сотрудничал с OpenAI и недавно открыл инвестиционную компанию, ориентированную на AGI (универсальный искусственный интеллект).
В эссе пять разделов:
- первый описывает путь от GPT-4 (где мы находимся сейчас) к AGI (который, по мнению Ашенбреннера, может появиться уже в 2027 году);
- во втором разделе прослеживается гипотетический путь от AGI к реальному сверхинтеллекту;
- в третьем обсуждаются проблемы, которые сверхразумные машины поставят перед миром, в частности экологические ресурсы для поддержания их работы и вызовы в плане безопасности и милитаризма;
- в четвертом разделе описывается то, что автор называет «проектом», который необходим для управления миром, оснащенным сверхразумными машинами;
- пятый раздел – это послание Ашенбреннера человечеству касательно принципов «реализма AGI».
Ашенбреннер считает, что вторую версию модели искусственного интеллекта ChatGPT производства компании OpenAI можно сравнить с уровнем «дошкольника»; следующая версия – GPT-3 – стала «учеником начальной школы»; GPT-4 – это «умный старшеклассник», и значительное увеличение вычислительной мощности, по-видимому, приведет к тому, что к 2028 году мы создадим «модели, столь же умные, как доктора наук или эксперты, которые могут работать вместе с нами в качестве коллег». Далее очень быстро возможности ИИ должны выйти за пределы человеческих, считает Ашенбреннер.
По его мнению, можно провести параллель между тем, на каком этапе внедрения искусственного интеллекта, в частности в военной сфере, находятся США сейчас, и тем, на каком этапе технологического развития они находились после первого в мире испытания ядерного оружия в рамках Манхэттенского проекта, ненадолго опередив СССР. Сейчас главным соперником считается Китай.
Ашенбреннер рекомендует сделать лаборатории ИИ в США закрытыми, чтобы оттуда не произошли преждевременные утечки информации о развитии искусственного сверхинтеллекта и сотрудничать в процессе разработки с разведчиками и силами обороны.
«Лидерство Америки в области искусственного интеллекта не обеспечит мир и свободу, если использовать данную технологию для разработки лишь развлекающих мобильных приложений. Это некрасиво, но мы должны создать ИИ для американской обороны», – говорит он.
«Все, что нужно – это новый Манхэттенский проект. И AGI-промышленный комплекс», – резюмирует Нотон.
Тем временем американский миллиардер Илон Маск, который также инвестирует в разработку ИИ, считает, что искусственный интеллект превзойдет человеческий уже в 2025 году.