Искусственный интеллект (ИИ) ‒ в центре внимания российского и мирового сообщества. Одни хвалят эти технологии, другие ругают, третьи опасаются.
Чтобы разобраться в этой теме, к которой мы не один раз будем обращаться, мы пригласили криминолога, генерала-лейтенанта милиции в отставке, доктора юридических наук, профессора Владимир Семёновича ОВЧИНСКОГО.
– Владимир Семёнович, вы один из крупнейших аналитиков по цифровой теме в России и мире, хотя известно, что вы юрист, работали в системе МВД, дослужились до генеральских званий, даже возглавляли Интерпол от России, но сейчас занимаетесь искусственным интеллектом, переводами интереснейших западных статей. Каким образом вы пришли к этой теме?
– Я продолжаю работать в системе МВД, просто у нас так устроено законодательство – после 65 лет нельзя быть госслужащим, поэтому я был главным научным сотрудником в НИИ МВД, выполняю функции советника министра внутренних дел.
Меня ввёл в тему мой отец, всю жизнь проработавший в МВД, в военной прокуратуре, во время войны был в военной разведке. Он в совершенстве знал немецкий язык, возглавлял отдел оперативно-розыскной деятельности, которому ещё министр Щёлоков поручил создать первые информационные системы в системе МВД. В конце 60‑х годов исследования темы искусственного интеллекта сильнее всего велись в СССР. К нам тогда приезжал Норберт Винер, создатель кибернетики, а вернувшись, написал докладную записку президенту Эйзенхауэру, мол, господин президент, русские нас не только в спутнике опередили, они и кибернетикой и алгоритмами занимаются более активно. После этой докладной в США начались объёмные работы по развитию кибернетики, алгоритмов, искусственного интеллекта.
– А кто у нас занимался в СССР ИИ?
– У академика Виктора Глушкова был институт кибернетики в Киеве. Он предложил руководству сделать единую систему компьютеризации, рассказал Брежневу о возможностях кибернетики для совершенствования системы планирования социалистического общества. Разработал Общегосударственную автоматизированную систему учёта и обработки информации (ОГАС). Брежнев назначил ему встречу для выступления в правительстве, но номенклатура, узнавшая про приезд, сорвала эту встречу. Глушкова задвинули. Партноменклатура не пустила технократов в управление страной. Потому что кто может работать с алгоритмами? Не выпускники партийных школ, а выпускники технических вузов, Бауманского института, МФТИ, Мехмата, МГУ. Из-за этого мы проиграли. Если бы это произошло, как у китайцев, создавших жёсткое кибернетическое и полицейское информационное государство, обогнавшее США, мы были бы лидерами. Трамп сейчас пытается объединить технократов и богачей, чтобы взять реванш.
Вторым человеком, оказавшим на меня влияние по поводу ИИ и компьютеризации, был Побиск Георгиевич Кузнецов. Я познакомился с ним на юридической конференции в Латвии, где он всех заворожил, говоря об алгоритмизации и связывая её с борьбой с преступностью. Это был выдающийся учёный.
– Я слышал о нём от разных людей, он был энциклопедически образованным человеком и занимался темой целевого управления и планирования, тяготел к русскому космизму. За его необычные взгляды и нестандартность его дважды репрессировали. Как раз в декабре 2025 года исполняется 25 лет со дня его ухода. Он был выдающимся междисциплинарным прогнозистом, и его прогнозы по развитию мира многократно превосходят исследования Римского клуба.
– Да, Побиск был замечательным человеком, он повлиял на меня и дважды очень серьёзно помог в жизни. Его охраняли, потому что за ним была система СМУО – Система математического управления общества в кризисной ситуации, в период военного положения.
– А чем вы сейчас занимаетесь в этой области?
– Мы вместе с коллегами из МВД по указу президента создали новое управление по борьбе с преступностью в сфере информационно-коммуникационных технологии. Я участвовал в разработке положения, структур, задач, функций, даже подбора руководителей. Одно из направлений моей деятельности сейчас – это аналитика в сфере борьбы с киберпреступностью и обеспечение информационной безопасности МВД. В этом плане я взаимодействую ещё и со структурами, которые обеспечивают банковскую безопасность. Самая эффективная система киберзащиты не только у нас в стране, но и в мире, создана в Сбербанке.
– Что нам может дать искусственный интеллект?
– В своей книге «Искусственный интеллект: на войне, в разведке, в борьбе с криминалом» я говорю о девяти технологиях, которые могут изменить мир. ИИ может сделать предсказание погоды более точным, и человечество сэкономит на этом 30 триллионов долларов. С помощью технологии сверхглубокого бурения он может бесперебойно обеспечивать планету геотермальной энергией, сокрытой в недрах земли. ИИ позволяет автоматизировать бизнес-процессы, наладить сотрудничество между онлайн-платформами. Обеспечить работу ядерных силовых установок для дальних космических полётов. Способен создать биокомпьютеры, которые могут производить вычисления, недоступные человеку. Возможности ИИ позволяют обслуживать нейрокомпьютерные интерфейсы для обмена информацией между мозгом и компьютером. Разработать алгоритмы для лучшей диагностики и лечения разных болезней, например, болезни Паркинсона, а также запрограммировать живую клетку на долголетие. ИИ поможет настроить квантовую оптимизацию для инвесторов. Даёт возможность построить лучшую навигацию транспорта без использования GPS, которая часто сбивается. Может быть использован на войне, в разведке, в промышленности, для борьбы с преступностью. Короче, он может помочь нам стать в миллион раз сильнее. Наш главный геополитический противник собирается всю свою цивилизацию построить на ИИ. И мы не должны отставать.
– Как сделать, чтобы мы справились с издержками цифровизации? Согласны ли вы с тем, что её у нас слишком форсируют?
– Главная опасность, которую несёт современное развитие технологии, это киберпреступность, с помощью которой грабят людей, государства, банки. Поскольку преступники используют искусственный интеллект, угрозы становятся вдвойне, втройне опаснее. ИИ является главным инструментом в руках транснационально организованной киберпреступности, и чтобы этому противостоять, мы создаём новые структуры, обучаем сотрудников.
Создавать общество вне жизни в системе – это вредная ошибка и глупость. Мы живём в XXI веке. Каждый человек, начиная с детского сада, школы, должен быть подготовлен жить в условиях информационных технологий. Надо не бежать и закрываться от этого, а наоборот, учить этому буквально с момента рождения.
Если мы этого не сделаем, то окажемся на задворках исторического процесса, превратимся в отсталых древних людей. Сегодня всё развивается с огромной скоростью, и мы должны быть впереди процесса, возглавлять его. Нам сейчас в этой сфере не хватает оборотов, у нас слабое образование. Лидер по цифровизации – не США, а Китай. И я бы очень хотел, чтобы мы построили такое жёсткое информационное общество, как там.
– В России, с её идеалами и привычкой к свободе, Китай, конечно, уважают, даже восхищаются, но мало кто хочет такой жизни по жёстким правилам, как в Китае.
– На мой взгляд, это идеальное общество. Мы о нём мало знаем. Там есть города-миллионники, где человек заходит в магазин, набирает продукты – и с его счёта автоматически снимаются деньги. В Китае практически нет ни обычной преступности, ни киберпреступности.
– Известно, что когда люди глубоко погружаются в процессы цифровизации, в гаджеты, это меняет психику. Дети не хотят читать, а если и читают, то новости на уровне заголовков и в основном развлекательный контент.
– Психика меняется каждое поколение. Мы с вами жили во времена, когда и понятия не было об Интернете. Когда он появился, все говорили, как это поменяет психику. А теперь мы даже не представляем, как жить без него, правильно? Вот так же следующее поколение детей не будет понимать, как можно жить без искусственного интеллекта. Насчёт детей исследования показывают, что просто они читают это всё сейчас в Сети.
Они не покупают книги и даже стихи читают в Интернете – и, поверьте, знают больше, чем знали мы. Я считаю, что за этим будущее, и если это не заменяет реальную жизнь, а позволяет получить дополнительные знания, то ничего страшного.
– В одной из своих статей Вы рассказывали, что ИИ всё больше проникает в религиозную жизнь и начинает влиять на священство, учить как бы от имени человека. Да и сами священники вроде начинают учиться писать проповеди с помощью ИИ.
– Я анализировал западные публикации, где рассказывается о процессах, которые происходят сейчас в иудаизме, и что творится в других христианских конфессиях. Действительно, если вы верующий человек, то надо разделять живую веру и использование технологий. Использование технологий для получения дополнительных знаний полезно, всегда можешь узнать, например, что по тому или иному поводу говорили Святые Отцы.
Не надо ходить в библиотеки. Но когда священники выставляют экран в церкви, создают свой аватар (или даже образ Христа!), который читает Коран или Каббалу, то я считаю, что это уже преступление против религии.
Но по большому счёту, никакие цифровые технологии не могут фундаментально повлиять на религиозное сознание. Когда человек обращается к вере, то его подводит к этому сложная жизненная ситуация, его идеологические, философские убеждения, его воспитание, традиции. Чем он лучше подготовлен в информационном плане, в том числе и вопросах цифровизации, тем он, на мой взгляд, лучше определит, где кончается религия и начинается псевдорелигия в виде цифровых манипуляторов. Поэтому я и говорю, что с детства надо объяснять, где добро, а где зло. Замена религиозного сознания на цифровые аватары – это зло.
Я много раз был в Америке и видел сам огромные храмы сатаны. И сатанисты собираются, поклоняются сатане с рогами в центре города, никто их не разгоняет. И сейчас, естественно, они будут использовать ИИ. Поэтому убеждён, что у нас в Православной Церкви должны быть контрольные органы, работающие против цифрового сатанизма, который стал реальностью.
Одно дело, когда информационные технологии помогают познать больше, а другое – информационный терроризм, когда человеку меняют сознание, забивают его всякой гадостью, вместо того, чему учат Библия и Святые Отцы.
– Один мой знакомый священнослужитель с болью говорит, что семинаристам не хочется напрягаться и самим готовить курсовые, и они обращаются к ИИ. Как мы обеспечим безопасность в этой сфере?
– Согласитесь, что это зависит от человека. Если он решил себя посвятить вере, стал священнослужителем по велению души, то не будет так поступать. А если он случайный человек, то так им и будет. ИИ надо рассматривать просто как дополнительное информационное средство.
– Как вы относитесь к тому, что сейчас создаётся второй, искусственный Новый Завет, в который вставляются какие-то цитаты, и он начинает активнейшим образом пропагандироваться? По-моему, Юваль Харари пишет сейчас новую «правильную» Библию.
– Я бы назвал эти попытки религиозным терроризмом. Для борьбы с ним нужно брать за основу подлинный текст, потому нужна книга. Ты начинаешь изучать религию с того, что сам прочитываешь Библию. Если этого не сделать, то религиозное сознание не формируется. А если ты прочитал Библию, Ветхий, Новый Завет, то ты уже на правильном пути и знаешь, где правда, где неправда.
Продолжает тему беседа с доктором экономических наук, профессором МГУ, президентом Международной академии исследований будущего Александром Ивановичем АГЕЕВЫМ.
– Александр Иванович, что вы думаете об ИИ?
– На эту темы за последние 10 лет создан колоссальный массив информации, во многом в категории «хайпа». Выскажу три общих соображения о системах искусственного интеллекта, отражённых в десятках стандартов, нормативно определяющих различные аспекты ИИ, и в профессиональной литературе.
Во‑первых, человечество реально подошло к такому этапу своей технологической эволюции, на котором формирование значительного числа искусственных систем приведёт к появлению нового типа общества, условно – Общества 5.0. В нём возникнут гибридные взаимоувязанные в сети человеко-машинные системы. В их числе будут и системы ИИ, способные в весьма широких рамках самостоятельно генерировать цели своей работы и использовать доступные данные. Вот и первый фундаментальный риск: ошибки в целеполагании и выход за пределы профильных данных могут привести ИИ к несанкционированным результатам с опасными общественными последствиями. Как разновидность – эти ошибки могут быть спровоцированы недобросовестным поведением людей с вполне естественным сознанием. Второй риск, например, вызывается отнюдь не стопроцентной надёжностью работы ИИ в критически важных инфраструктурах и технических системах, здравоохранении, транспорте и т. д. Многие предвестники будущих возможностей и рисков видны в локальных вооружённых конфликтах. Речь о роботизации боевых действий.
Даже в уже принятых в России и мире стандартах в области ИИ сформировано ясное понимание, что ИИ – это не только гаджет на кремниевой основе, но информационная технология, суть которой – разбиение больших объёмов цифровых записей на классы согласно определённой архитектуре данных, а затем определение (с помощью нейросетей или иным способом), к какому классу относится то или иное событие, чтобы, опираясь на предсказательную аналитику, совершить управленческое действие. В этом определении видно общее и отличное между ИИ и естественным разумом.
Во‑вторых, общественная осведомлённость о работе систем ИИ и прозрачность для осознания рисков и плюсов. Сейчас оба этих параметра подвергаются настоящим атакам и оппонентов, и нередко самих разработчиков. То, что недавно случилось в Южной Корее, когда почти 900 цифровых структур были повреждены пожаром, а 100 из них поражены необратимо – это своего рода Фукусима для индустрии ИИ. Но когда любая технология продвигается через ажиотаж, хайп, и при этом не повышается осведомлённость общества, риски ущербов самого разного плана нарастают как снежный ком.
Упомяну и особый тип проблем, который можно трактовать как «сверхвызов ИИ». Ему посвящена треть нашего 800‑страничного доклада 2023 года «Сплетённый мир». Речь о том, что если до недавнего времени самый важный вопрос для человека был о смерти, и на него были найдены основательные религиозные и – в меньшей степени – научные ответы, то с экспансией ИИ, захватом всё большего объёма сугубо человеческих работ и функций будет всё острее возникать вопрос не о смертности человека и формах его бессмертия, а о самом смысле жизни человека в мире, где могут доминировать искусственные сущности, способные собирать, обрабатывать и использовать для решений такие объёмы данных, которые не способен охватить ни один человек, даже если бы он был Леонардо да Винчи.
Беседовал Сергей КЛЮЧНИКОВ
Источник: НиР № 12, 2025
