В настоящее время в России активно ведется работа над проектом закона о регулировании искусственного интеллекта (ИИ). Этот документ направлен на создание условий для развития технологий ИИ, обеспечивая при этом защиту общественных интересов и минимизируя возможные риски. По данным издания «Коммерсант», обсуждение концепции нового законодательства проходило в конце 2025 года с участием представителей отрасли и государственных органов.
Новый закон предусматривает введение рамочного регулирования, охватывающего широкий спектр аспектов, связанных с созданием и применением продуктов на основе ИИ. Согласно проекту, ограничения коснутся непосредственно конечных продуктов, созданных с использованием ИИ-технологий, а не самой технологии. Это позволит сохранить баланс между стимулированием инноваций и обеспечением безопасности общества.
Причинами выбора именно такого подхода стали опасения властей, что чрезмерная регламентация может негативно сказаться на развитии отечественной индустрии ИИ. Учитывая, что российский рынок занимает всего около 2% глобального объема разработок, было принято решение минимизировать барьеры для бизнеса и ученых, занимающихся исследованием и внедрением ИИ-решений. Российская Федерация остается одной из самых либеральных стран мира в отношении подходов к развитию и применению искусственного интеллекта.
Однако важно отметить, что в некоторых ключевых областях государство намерено усилить контроль. Эти сектора включают медицину, оборону, государственные органы и обеспечение национальной безопасности. Для компаний-разработчиков ИИ в указанных сферах будут введены специальные условия регистрации и эксплуатации центров обработки данных исключительно на территории России. Помимо этого, обязательным условием станет использование российских наборов данных («датасетов») для обучения моделей и проведение проверок качества и надежности. Такие шаги позволят обеспечить прозрачность и надежность решений, используемых в жизненно важных системах страны.
Также законодатели рассматривают возможность введения специальных мер ответственности для разработчиков и пользователей ИИ. Например, нарушение законов или совершение преступления с использованием технологий ИИ будет рассматриваться как отягчающее обстоятельство. Подобный подход призван предупредить потенциальные злоупотребления технологиями и повысить уровень доверия к продуктам на основе ИИ среди населения. Особое внимание уделяется вопросам распространения дезинформации, созданию фальшивых изображений и материалов («дипфейков»), а также попыткам влияния на политические процессы путем манипуляций искусственным интеллектом.
Отдельным направлением обсуждения является проблема интеллектуальной собственности на продукцию, созданную с помощью ИИ. Законопроект предлагает четкую классификацию результатов деятельности ИИ, чтобы избежать правовых коллизий и споров. Важной задачей становится установление правил, определяющих авторов произведений искусства, научных исследований и других творческих работ, создаваемых с помощью машинных алгоритмов.
Таким образом, новый законопроект представляет собой компромисс между потребностью в защите общественного интереса и стремлением поддержать технологическое развитие в России. Хотя полный текст проекта пока не опубликован, эксперты уверены, что такой подход способен укрепить позиции российского ИИ-сообщества на международной арене, одновременно снизив вероятность негативных последствий неконтролируемого внедрения новых технологий.



