В выпущенном недавно докладе "Набирая силу, собирая бурю" эксперты из Стэнфорда назвали "особенно заметной опасностью" тот факт, что ИИ может стать катализатором процесса создания машин-шпионов и машин-убийц. Однако при этом подчеркнули, что "в настоящее время существует много других важных и более тонких опасностей". В частности, они указали на четыре направления использования алгоритмов, которые уже сегодня создают общественные риски.
Техно-решения могут привести к ужесточению по отношению к людям, которые оказались в затруднительной жизненной ситуации – например, к вынужденным мигрантам. Вынесение судебного вердикта – еще один шаг, который при внешней объективности способен привести к дискриминации. Дезинформация при помощи дипфейк-видео или онлайн-ботов грозит подорвать "любое чувство объективной истины". А ИИ, используемый в здравоохранении, может способствовать тому, что любое улучшение станет происходить за счет наиболее уязвимых.