Казнить нельзя помиловать!? (Турысбекулы Мади)

Доступ

Для того чтобы поставить документ на контроль, вам нужно авторизоваться.Если у вас нет логина и пароля, зарегистрируйтесь

Казнить нельзя помиловать!? (Турысбекулы Мади)

20.06.2025

Казнить нельзя помиловать!?

 

Турысбекулы Мади

20 июня 2025 года

 

ПРЕДИСЛОВИЕ

 

В эпоху цифровых технологий и искусственного интеллекта правовая система Казахстана сталкивается с новыми вызовами, требующими пересмотра устоявшихся подходов к защите прав граждан в цифровой среде.

Одним из таких вызовов стали манипуляции, искажение и иная незаконная обработка персональных данных граждан, включая Deepfake-технологии - инструменты создания синтетических видео- и аудиоматериалов, способных с высокой степенью достоверности имитировать внешность и голос реальных людей.

Автор категорически осуждает любые формы насилия - физического, психического, экономического или иного характера. Данная публикация ни в коей мере не направлена на защиту, поддержку или оправдание насилия или лиц, совершивших насильственные преступления.

Публикация направлена на обеспечение справедливого и равного правосудия для всех граждан, независимо от их прошлого, социального статуса или общественного мнения о них. Верховенство права предполагает, что каждый человек имеет право на защиту своих законных интересов, включая право на неприкосновенность персональных данных.

Автор убежден, что подлинная борьба с насилием должна осуществляться законными методами, через справедливое судебное разбирательство и неукоснительное соблюдение процедурных гарантий. Нарушение прав одних людей не может служить инструментом борьбы с правонарушениями других. Принцип равенства перед законом является фундаментом правового государства и не должен приноситься в жертву эмоциональным реакциям или желанию «народной справедливости».

В данной публикации автор пытается обосновать необходимость единообразного применения правовых норм при защите от манипуляций, искажений и иной незаконной обработки персональных данных граждан, выработав рекомендации по совершенствованию правоприменительной практики.

Автор выражает надежду, что данная публикация будет способствовать формированию более справедливой и эффективной системы защиты цифровых прав граждан в Республике Казахстан.

Катализатором для публикации стали два конкретных случая (i) монтаж ролика с участием девятилетнего мальчика, снявшемся в видео для рекламы сети кафе Qatty Tatty и (ii) Deepfake-видео с участием экс-министра Куандыка Бишимбаева и актера Шарипа Серика.

Удивительно, но в обоих случаях конкретные нарушения прав граждан в области персональных данных остались безнаказанными, несмотря на тот факт, что, по мнению автора, имелись достаточные основания для привлечения нарушителей, как минимум, по ч. 1 ст. 79 КоАП РК.

 

ПРАВОВОЙ АНАЛИЗ ЧАСТИ 1 СТАТЬИ 79 КОАП РК В КОНТЕКСТЕ ЦИФРОВЫХ ПРАВОНАРУШЕНИЙ

 

Часть 1 статьи 79 КоАП РК предусматривает ответственность за сам факт деяния, которое выразилось в незаконном сборе и (или) обработке персональных данных, если эти деяния не содержат признаков уголовного деяния.

Данная формулировка имеет принципиальное значение для квалификации цифровых правонарушений, поскольку:

 

1. Альтернативность объективной стороны

Незаконными признаются как сбор, так и обработка персональных данных по отдельности, то есть наличие одного из действий (сбор или обработка) является достаточным для привлечения к административной ответственности. Это означает, что:

· Нарушитель может быть привлечен к ответственности только за незаконный сбор персональных данных, даже если их дальнейшая обработка не осуществлялась;

· Аналогично, ответственность наступает только за незаконную обработку уже имеющихся персональных данных, даже если их первоначальный сбор был законным.

 

2. Широкое толкование термина «обработка»

Под обработкой персональных данных понимаются любые действия, совершаемые с персональными данными, включая накопление, хранение, изменение, дополнение, использование, распространение, обезличивание, блокирование и уничтожение (подп. 12 ст. 1 Закона РК «О персональных данных и их защите», далее - Закон о персональных данных).

Приведенный перечень действий не является закрытым, поскольку новые технологии и способы обработки данных постоянно обновляются, и законодательство должно адаптироваться к таким изменениям. Важно, чтобы перечень был достаточно широким, чтобы включать в себя все возможные способы обработки, и в то же время, гибким, чтобы не ограничивать развитие новых технологий[1]. Если перечень был бы закрытым, то новые способы обработки данных могли бы остаться вне правового регулирования, что могло бы привести к нарушению прав субъектов персональных данных.

Особое значение для цифровых правонарушений имеет понятие «искажение» персональных данных. Искажением следует считать не только распространение заведомо ложной информации, но и распространение сведений, которые вводят в заблуждение относительно человека.

Примеры искажения в цифровой среде:

· Создание Deepfake, имитирующего встречу лиц, которая в реальности не происходила;

· Наложение ложных субтитров на реальные видеозаписи;

· Использование технологий изменения голоса для создания ложных аудиозаписей;

· Монтаж изображений для создания компрометирующих ситуаций.

 

3. Нарушение границ согласия

Незаконными признаются не только сбор или обработка, осуществляемые без наличия согласия, но и те действия, которые выходят за пределы ранее полученного согласия.

Принцип целевого использования: Согласие субъекта на обработку персональных данных является специфическим и ограниченным. К примеру:

· Согласие актера на участие в рекламной съемке не означает согласия на создание Deepfake-контента с его участием;

· Публикация фотографии или видео в социальной сети не равнозначна согласию на их использование для создания Deepfake-контента в иных целях (к примеру, реклама);

· Согласие на интервью не включает разрешение на техническое искажение высказываний.

Если изначально согласие получено для одной или нескольких целей, а в последующем персональные данные обрабатываются для новых (неоговоренных) целей, то виновные лица должны быть привлечены к ответственности. При чем ответственность должна наступать даже в тех случаях, когда новые цели являются законными.

 

4. Формальный состав правонарушения

Как отмечалось выше часть 1 статьи 79 КоАП РК предусматривает ответственность за сам факт деяния, которое выразилось в незаконном сборе или обработке персональных данных. Наступление каких-либо неблагоприятных последствий не требуется для квалификации правонарушения.

Это означает, что:

· Не нужно доказывать фактический ущерб от незаконного сбора или обработки;

· Достаточно установить сам факт нарушения процедур сбора или обработки персональных данных;

· Таким образом, даже формально совершённое цифровое правонарушение может влечь административную ответственность.

 Это особенно важно в условиях, когда вред от цифровых правонарушений часто недооценивается. Рассмотрим, как эти нормы применимы к двум реальным и резонансным случаям, вызвавшим широкий общественный отклик.

 

ПРАКТИЧЕСКОЕ ПРИМЕНЕНИЕ К КОНКРЕТНЫМ СЛУЧАЯМ

 

На основе изложенного выше анализа правовых норм рассмотрим два конкретных инцидента, демонстрирующих проблемы правоприменительной практики в сфере цифровых правонарушений.

 

Случай 1: Дело блогерши Daricorn

Фактические обстоятельства: Блогерша не была привлечена к ответственности по части 1 статьи 79 КоАП РК, несмотря на очевидные, по мнению автора, признаки незаконной обработки персональных данных девятилетнего мальчика.

Правовая квалификация нарушений:

Первое нарушение: Искажение персональных данных

· В рекламном видео кафе был наложен текст с искажением: вместо слова «пицца» крупными буквами на экране появилось неприличное слово;

· Правовая оценка: Данные действия представляют собой обработку персональных данных путем их искажения в понимании подп. 12) ст. 1 Закона о персональных данных;

· Объект воздействия: Изображение ребенка (биометрические персональные данные);

· Способ нарушения: Наложение ложного текста, создающего ложное впечатление о произнесенных ребенком словах.

Второе нарушение: Отсутствие согласия на обработку

· Родители мальчика не давали согласия на сбор и обработку персональных данных ребенка для рекламных целей. И уж тем более сложно представить, чтобы было дано согласие на последующее искажение произнесенных им слов;

· Правовая оценка: Нарушение требований ст. 7 Закона о персональных данных об обязательности получения согласия на обработку. А также требования о том, что обработка персональных данных должна ограничиваться достижением конкретных, заранее определенных и законных целей.

Третье нарушение: Содействие распространению

· Руководство кафе не предприняло действий по удалению компрометирующего видео, несмотря на негативные последствия для ребенка;

· Ролик стал вирусным: более 2,5 миллиона просмотров и тысячи оскорбительных комментариев;

· Последствия: Ребенок подвергся буллингу в школе, спортивной секции и во дворе;

· Правовая оценка: Бездействие по прекращению распространения представляет собой пособничество в продолжении незаконной обработки персональных данных.

 

Случай 2: Deepfake с участием Шарипа Серика и Куандыка Бишимбаева.

Фактические обстоятельства: Автор Deepfake-видео не был привлечен к ответственности, несмотря на явные признаки незаконной обработки персональных данных обоих лиц.

Правовая квалификация нарушений:

Первое нарушение: Сбор и обработка изображений без специального согласия

Возможные аргументы в пользу нарушителя: Ссылка на пункт 5 статьи 7 Закона о персональных данных, который допускает «повторный сбор, обработка и распространение третьими лицами персональных данных, опубликованных на основании пунктов 3 и 4 настоящей статьи, при условии наличия ссылки на источник информации.».

Иными словами изображение было взято из общедоступных источников. К примеру, личный аккаунт из социальной сети, куда фото/ видео изображение было загружено самим изображаемым лицом.

 

Контраргументы:

1) Ограничение целей обработки: Пункт 8 статьи 7 Закона о персональных данных устанавливает, что «обработка персональных данных должна ограничиваться достижением конкретных, заранее определенных и законных целей. Не допускается обработка персональных данных, несовместимая с целями сбора персональных данных.». То есть это означает, что если изначально персональные данные были получены для одной цели то любая последующая обработка таких персональных данных должна соответствовать первоначальной цели. К примеру, фото/ видео изображение в социальной сети размещено для того, чтобы поделиться знаковым событием из личной жизни (окончание учебы в школе/ ВУЗе), такое фото/ видео не может быть использовано для рекламных целей учебного заведения/ производителя одежды/ ресторана/ пункта проката автомобилей и т.д.;

2) Принцип добросовестности: Публикация изображения в социальной сети не означает согласие субъекта на его использование в абсолютно любых целях без ограничений. Закон такого разрешения не содержит;

3) Специфичность Deepfake-технологий: Создание синтетических материалов с использованием ИИ представляет собой качественно новый способ обработки, выходящий за рамки обычного «повторного использования.».

Второе нарушение: Создание ложного контента

Характер деяния: Deepfake-видео было создано для имитации встречи лиц, которая в реальности не происходила, что, по мнению автора, никак не может быть отнесено к категории добросовестного юмористического контента.

Сделаем небольшое отступление, чтобы понять - где граница между защищенной законом сатирой/ юмором и вредоносным Deepfake, маскирующимся под юмор. Это важно, поскольку позволяет правильно оценить юридическую допустимость таких материалов, важно разграничить допустимую сатиру и вредоносную манипуляцию. Международные эксперты предлагают конкретные критерии.

 

Критерии разграничения Deepfake и юмора.

Согласно исследованию международной правозащитной организации WITNESS «Just Joking!» (2021)[2], аргумент «это просто юмор» становится стандартной защитой создателей вредоносных Deepfake. Как отмечают исследователи: «Все чаще сатира используется как защитное оправдание - «просто шучу!» - после того, как видео распространилось и причинило вред.».

Крупнейшее международное исследование Deepfake и юмора, проанализировавшее более 70 случаев по всему миру, выявило системное злоупотребление защитой «это просто шутка»:

· Выявлена закономерность: «Сатира, как оружие» против уязвимых групп;

· Установлено: «юмор служит и мечом, и щитом» для распространения вредоносного контента;

· Ключевой вывод: «Злоумышленники превращают юмор в оружие с целью причинения вреда отдельным лицам и сообществам. Некоторые из их самых угрожающих работ принимают форму синтетических медиа.».

Показательно признание белого националиста Ника Фуэнтеса: «Ирония так важна для того, чтобы дать много прикрытия и правдоподобного отрицания наших взглядов.». Это демонстрирует сознательное использование юмора как прикрытия для распространения вредоносного контента.

Эксперты WITNESS выделяют следующие пять ключевых критериев для разграничения сатиры и вредоносного Deepfake:

1) Намерения автора

· Настоящая сатира: осознанная критика власти, общественных норм или явлений в интересах социальной справедливости.

Пример: Ролик, в котором министр финансов «объясняет гражданам, как прожить на минимальную заработную плату в месяц, покупая икру и устрицы» - сатира на отрыв чиновников от реальности;

· Вредоносная манипуляция: направлена на дискредитацию, унижение или подрыв доверия к человеку/группе.

Пример: Ролик, в котором журналист-расследователь «извиняется за клевету и обещает больше не критиковать власть» - цель: подорвать доверие к его работе.

2) Контекст публикации

· Этическая сатира: всегда предполагает, что зритель «в курсе» и понимает отсылки и контекст.

Пример: В YouTube-видео с актёром, изображающим политика, в начале ролика звучит: «Внимание! Это художественная пародия. Все совпадения случайны.». Видео - в жанре очевидной пародии;

· Вредоносный контент: вырывается из контекста или распространяется без пояснений, способствуя дезинформации.

Пример: Выступление чиновника, который говорит «Мы будем штрафовать за покупки в интернете без сдачи декларации в налоговую». То есть контент выложен без пояснений, оформлен как «реальная запись» - вводит в заблуждение, пересылается как правда.

3) Направление критики: «удар вверх vs удар вниз»

· Этическая сатира, как правило, критикует власть, власть имущих (так называемый «punching up»).

Пример: пародия на чиновника, выступающего с абсурдными обещаниями, или карикатура, в которой олигарх купается в деньгах, с подписью: «Бюджет на соцподдержку в 2025 году»;

· Если «шутка» высмеивает уязвимых или маргинализованных - это часто форма вредоносной коммуникации («punching down»).

Пример: дипфейк с несовершеннолетним, где его лицо вставлено в унизительный контекст.

4) Эстетика и стиль

· Настоящая сатира: гиперболизирована, содержит абсурд, явно не претендует на реализм.

Пример: Министр финансов «превращается в огнедышащего дракона при упоминании налогов»;

· Вредоносные Deepfake: предельно реалистичны с целью ввести в заблуждение и потом «отшутиться».

Пример: Точная имитация голоса и мимики для «компромата».

5) Ответственность и прозрачность

· Создатели поясняют, что это искусственный контент (пример: «Deep Reckonings»).

Пример: Дисклеймер в описании: «Это сатирический контент»;

· Злоумышленники: избегают маркировок, используют заявления о «юморе» после скандала как способ снять ответственность.

Пример: Отсутствие любых предупреждений об искусственности или имитация стиля официальных заявлений.

Заключение по критериям WITNESS:

Фраза «я просто пошутил» - не гарант иммунитета. Ключевые признаки вредоносности:

a) Вводящий в заблуждение реализм;

b) Отсутствие явного сатирического намерения;

c) Негативные последствия для конкретных лиц;

d) Использование юмора как оправдания уже после публикации.

Для наглядности приведу сравнительную таблицу: сатира/ юмор vs вредоносный Deepfake

 

Критерий

Сатира/юмор

Вредоносный Deepfake

Намерение автора

Критика власти, социальных явлений; заявляется изначально

Дискредитация конкретного лица или нескольких лиц; «шутка» заявляется после скандала

Контекст публикации

Зритель «в курсе», понимает отсылки и условность

Вырывается из контекста, распространяется без пояснений

Направление критики

«Удар вверх»: против власти, сильных

«Удар вниз»: против уязвимых, маргинализованных

Эстетика и стиль

Гиперболизация, абсурд, явно не реалистично

Максимальный реализм. Зачастую с целью введения в заблуждение

Ответственность и прозрачность

Четкие маркировки об искусственности контента

Отсутствие предупреждений, маскировка под реальность

 

Дополнительно следует отметить, что в законной сатире/ юморе согласие изображаемого либо получено, либо не требуется в силу закона. Последнее касается случаев с публичными фигурами (политики, общественные деятели, артисты и другие лица, чья деятельность стала известной благодаря медиа, включая, социальные сети), при условии, что изображение используется в контексте обоснованной общественной критики их деятельности, а не для целей личной дискредитации, коммерческой выгоды или иных неправомерных целей.

При этом сатира и юмор защищены свободой слова и самовыражения (при условии соблюдения этических норм), поскольку служат общественным интересам: критикуют власть, выявляют социальные противоречия и способствуют общественному диалогу, что является основой демократического общества.

В случае с вредоносным Deepfake согласие изображаемого отсутствует, и создаваемый таким образом контент законом не защищен, поскольку, как минимум, нарушает право на изображение и право на персональные данные. Сами по себе заявления о «сатире» не гарантируют допустимость контента.

 

Применение критериев WITNESS к случаю Шарипа Серика

 

Анализ по пяти критериям:

1) Намерение автора.

Автор ролика утверждает, что его намерение заключалось в художественном выражении позиции против насилия в обществе. Данное заявление было подкреплено надписью «Нет насилию в Казахстане». Однако это заявление слегка размыто, поскольку связь между надписью и выбранными образами не так очевидна, как может показаться для автора ролика. Возможно, автор задумывал критику через гиперболизацию или иронию, но такой художественный замысел оказался слишком тонким и неясным для обычного восприятия, что поставило под сомнение эффективность подобного способа борьбы с насилием.

2) Контекст публикации

Ролик был опубликован в Instagram без каких-либо предупреждений о его искусственной природе. Отсутствовали маркировки «пародия», «сатира» или «создано с помощью ИИ».

Несмотря на это обстоятельство, зрители «поняли», что такой встречи не было, поскольку оба изображенных лица не могли встретиться в таком месте и при таких обстоятельствах.

3) Направление критики

Согласно критериям WITNESS, законная сатира направляется «вверх» - против власти и общественных пороков.

В данном случае, по словам автора ролика, критика направлена ситуацию с насилием в Казахстане. Однако для этого был выбран образ Шарипа Серика, который в момент создания ролика находился в статусе обвиняемого по резонансному делу.

В то же время следует учитывать тот факт, что образ Шарипа Серика, находящегося в уязвимом положении обвиняемого, не самый удачный способ для выражения своей гражданской позиции. По мнению автора - это классический пример «удара вниз», поскольку направлен против лица, не обладающего властными полномочиями.

Более эффективным и этичным способом привлечения внимания к проблеме насилия могло бы стать создание контента, где образ Шарипа Серика использовался бы в гротескно-сатирическом ключе, высмеивающем именно попытки оправдать не оправдываемое. Например, ролик мог бы представлять утрированного персонажа, проводящего абсурдный «мастер-класс по невербальной коммуникации», где он с серьезным видом объясняет: «Это не агрессия, это эмоциональная каллиграфия» или «Мои руки - просто очень экспрессивные переводчики моих чувств». Через гиперболизацию и абсурдность таких «оправданий» пользователь ясно понимал бы неприемлемость любых попыток рационализировать насилие. Такой подход позволил бы донести антинасильственный посыл без унижения конкретной личности и нарушения ее прав, сохранив при этом сатирическую форму и общественно значимое сообщение. Через абсурдность оправданий можно было показать, насколько нелепо и неприемлемо пытаться рационализировать насилие любыми словами.

4) Эстетика и стиль

Несмотря на заявления о «гротеске», ролик создан с высокой степенью реализма, имитирующего реальную встречу. Отсутствуют очевидные маркеры искусственности или преувеличения, которые бы ясно указывали на сатирический характер. Визуальное исполнение направлено на максимальное правдоподобие, а не на очевидную пародию.

 5) Ответственность и прозрачность

Автор не обеспечил прозрачность происхождения контента. Отсутствуют дисклеймеры об использовании ИИ-технологий или получении согласия изображаемых лиц. Согласие Шарипа Серика и Куандыка Бишимбаева на использование их образов получено не было, что нарушает принципы ответственного создания контента.

Применение критериев WITNESS, по мнению автора, показывает, что ролик не соответствует стандартам законной сатиры по большинству параметров и должен квалифицироваться как вредоносное использование технологий синтеза медиа.

Отдельного анализа заслуживает правовая позиция защиты, выдвинутая автором ролика и его адвокатом. Ниже рассмотрим, насколько эти аргументы выдерживают юридическую и этическую проверку в контексте цифрового права.

Автор ролика сообщил, что ролик - это художественное выражение его позиции о ситуации с насилием: «В нашем обществе не должно быть насилия. Никакого. Название ролика «Нет насилию в Казахстане». Это и есть главный посыл».

В свою очередь, адвокат автора ролика сообщил, что ролик - не дипфейк, а явно сгенерированный ИИ образ. И утверждал, что «видна откровенно сатирическая форма подачи. Видно, что это гротеск». И оба лица, изображенных в ролике, нигде и никак пересечься не могли. «Все комментаторы поняли, что это шутка».

Однако данная позиция требует детального правового анализа с учетом современных технологических реалий.

 

Deepfake - это не только техника, но, и эффект

Следует отметить, что технология Deepfake «представляет собой специфическое применение искусственного интеллекта, которое включает создание манипулированного или сфабрикованного контента... с целью обмануть зрителей, заставив их поверить, что манипулированный контент является реальным.»[3].

Даже если ролик создан не с помощью подмены лица (Deepfake в техническом смысле), но воспринимается как реальный человек в реальной ситуации - это подпадает под понятие Deepfake по эффекту и цели.

Вопрос не в названии технологии, а в том, был ли использован узнаваемый образ для симуляции реального человека. Если да - это Deepfake по сути.

 

Разграничение между AI и Deepfake не отменяет ответственности

Сама по себе ИИ-генерация не является проблемой. Но если она используется для симулирования конкретной личности без согласия - она переходит в категорию Deepfake по назначению.

Иными словами, как только этот образ начинает быть узнаваем как конкретный человек и используется в провокационном контексте - он перестаёт быть просто фантазией. Это уже вмешательство в право на образ.

Попытка подменить понятия: техническая разница между Deepfake и ИИ-генерацией не влияет на правовую оценку. Использование узнаваемого образа человека без его согласия остается нарушением права на изображение независимо от технологии создания.

 

Объективность восприятия важнее авторского замысла

Неважно, что автор считает своим посылом (шутка, гротеск, искусство) - если зрители восприняли это как реального человека, то:

· контент становится потенциально вредоносным,

· может причинить репутационный вред, и

· подпадает под этические/ правовые нормы, защищающие личность.

Факт того, что кто-то смеялся - не защита. Манипуляция остаётся манипуляцией, даже если она вызывает смешок. Особенно если это - смех над конкретным человеком. В конце концов, в истории с девятилетним мальчиком, очень многие пользователи тоже смеялись. Более того, издевались, оставляя едкие и неуместные комментарии. Что, в конце концов, привело к травле (буллингу) мальчика.

Массовая реакция аудитории не определяет правовую квалификацию, поскольку смех может быть токсичным (одобрение унижения).

Сатира и юмор защищены как форма выражения, но не в случаях, где они:

· унижают конкретного человека,

· вводят в заблуждение,

· наносят ущерб,

· созданы без его воли и ведома.

Адвокат автора ролика опирается на технические термины («это не дипфейк») и сатирическую форму, но забывает о сути правонарушения. Не технология определяет нарушение, а результат: если образ воспринимается как реальный человек, и этот человек не давал согласия - его права нарушены.

Сатира - не индульгенция. Публичное высмеивание без воли участника, даже в форме гротеска, - это инструмент травли. Подменяя форму и игнорируя эффект, автор ролика и его адвокат, по мнению автора, подрывают границы цифровой этики. Мы вправе смеяться, но не вправе - использовать для этого чужое лицо.

 

Критика «невозможной ситуации» как оправдания

Физическая невозможность той или иной встречи не делает контент автоматически законным.

Даже абсурдные ситуации (вроде встречи актёра и осуждённого экс-министра) не защищают контент, если образы реальных людей используются без их согласия, особенно в негативном, деструктивном контексте.

 

Принципы цифровой гигиены и этики

ИИ - мощный инструмент, но требует уважения к человеческому достоинству. Прятаться за словами «это был гротеск», всё равно что скрывать удар, сказав, что это был хлопок по плечу.

По мнению автора, благородная цель не оправдывает неэтичные средства. Если автор ролика действительно борется с насилием, он может делать это, не нарушая права других людей.

Возвращаясь к систематическому анализу правонарушений в рассматриваемом случае, необходимо рассмотреть третий аспект нарушения.

Третье нарушение: Принцип равенства прав

Анализируя общественную реакцию на данный инцидент, важно рассмотреть опасную тенденцию избирательного применения правовых норм в зависимости от общественного мнения о личности потерпевшего.

В определенных случаях возникают ситуации, которые некоторые люди толкуют следующим образом: «Человек совершил правонарушение и понес за него наказание, поэтому его права могут быть ограничены.».

Однако, если иное прямо не предусмотрено законом, такой подход является ошибочным и незаконным.

Правовой анализ недопустимости данного подхода:

Аналогия 1: Девушка, оказывающая эскорт-услуги, подверглась сексуальному насилию. Полиция и общественность могут заявить: «сама виновата, нечего было заниматься такими делами.»;

Аналогия 2: Ребенок-клептоман был избит сверстниками до потери сознания. Общественность снова говорит: «нечего было красть у своих.».

Правовая опасность размывания принципов:

· Создание категории граждан с ограниченными правами на основании предыдущих правонарушений;

· Формирование прецедента избирательного правосудия;

· Подрыв конституционного принципа равенства перед законом;

· Риск оставления «неудобных» жертв без правовой защиты.

 

СИСТЕМНЫЕ ПРОБЛЕМЫ ПРАВОПРИМЕНИТЕЛЬНОЙ ПРАКТИКИ

 

Анализ рассмотренных случаев выявляет серьезные системные недостатки в применении норм о защите персональных данных в цифровой среде.

 

1. Недооценка цифровых правонарушений

Уполномоченные органы демонстрируют недостаточное понимание специфики цифровых технологий и их потенциала для причинения вреда. Создание Deepfake-контента или цифровое искажение изображений часто воспринимается как «технические шалости», а не как серьезные правонарушения, затрагивающие фундаментальные права граждан.

 

2. Отсутствие единых стандартов квалификации

В правоприменительной практике отсутствуют четкие критерии разграничения между:

· Законной сатирой и вредоносным контентом;

· Техническими особенностями создания контента и его правовой оценкой;

· Общественным резонансом и юридической значимостью нарушения.

 

3. Избирательность в защите прав

Наблюдается тенденция к избирательному применению норм в зависимости от:

· Общественного мнения о потерпевшем;

· Социального статуса нарушителя;

· Медийности случая.

Это подрывает принцип равенства перед законом и создает опасные прецеденты.

 

4. Недостаточная правовая грамотность

Как уполномоченные органы, так и общественность демонстрируют недостаточное понимание:

· Сущности персональных данных в цифровую эпоху;

· Механизмов их защиты;

· Последствий нарушений для потерпевших.

 

РЕКОМЕНДАЦИИ ПО СОВЕРШЕНСТВОВАНИЮ ПРАВОПРИМЕНИТЕЛЬНОЙ ПРАКТИКИ

 

1) Методические рекомендации для уполномоченных органов

Разработка специализированных методических указаний по квалификации цифровых правонарушений, включающих:

· Четкие критерии разграничения Deepfake и законной сатиры;

· Алгоритм установления факта незаконной обработки персональных данных;

· Особенности доказывания в делах о цифровых правонарушениях.

Создание специализированных подразделений для расследования преступлений в цифровой сфере с соответствующей технической и правовой подготовкой.

 

2) Образовательные программы

Для уполномоченных органов:

· Обучающие семинары по современным цифровым технологиям;

· Изучение международного опыта борьбы с цифровыми правонарушениями;

· Практикумы по применению норм о защите персональных данных.

Для общественности:

· Информационные кампании о цифровых правах;

· Разъяснение ответственности за нарушения в цифровой среде;

· Формирование культуры цифровой этики.

 

3) Законодательные инициативы

Уточнение норм КоАП РК и УК РК:

Для КоАП РК (методические уточнения):

· Разработка разъяснений по применению существующих норм к цифровым правонарушениям;

· Методические указания по квалификации действий с использованием ИИ в рамках ст. 79 КоАП РК;

· Уточнение процедур расследования и доказывания в делах о цифровых правонарушениях.

 

Для УК РК (существенные дополнения):

· Включение в действующие статьи (к примеру, ст. 147 УК РК) специальных составов для тяжких цифровых преступлений;

· Определение квалифицирующих признаков при использовании ИИ-технологий;

· Установление повышенной ответственности за преступления с участием несовершеннолетних в цифровой среде;

· Введение составов, предусматривающих уголовную ответственность за массовое распространение вредоносного синтетического контента.

 

Дополнение Закона о персональных данных:

· Специальные нормы о Deepfake и синтетических медиа;

· Требования к маркировке ИИ-генерированного контента;

· Процедуры получения согласия на использование в цифровых технологиях.

 

4) Международное сотрудничество

Изучение и адаптация международного опыта:

· Анализ практики ЕС в области регулирования ИИ;

· Изучение подходов США к борьбе с Deepfake;

· Участие в международных инициативах по цифровой безопасности.

 

ВЫВОДЫ

 

Проведенный анализ двух резонансных случаев нарушения прав в цифровой среде выявляет критические недостатки в системе защиты персональных данных граждан Казахстана. Основные проблемы заключаются не в отсутствии правовых норм, а в их неэффективном применении или не применении в целом.

 

Ключевые выводы:

1. Административное законодательство содержит достаточную базу для привлечения к ответственности за большинство цифровых правонарушений. Часть 1 статьи 79 КоАП РК содержит все необходимые элементы для квалификации незаконной обработки персональных данных, включая их искажение с помощью современных технологий;

2. Уголовное законодательство требует доработки для эффективного противодействия наиболее серьезным цифровым преступлениям и установления адекватных санкций за использование современных технологий для причинения вреда;

3. Основная проблема кроется в правоприменении. Даже при наличии достаточных административных норм, отсутствие единых подходов к квалификации цифровых правонарушений приводит к безнаказанности нарушителей и формированию опасных прецедентов;

4. Необходимы методические уточнения для единообразного применения существующих норм с учетом специфики цифровых технологий;

5. Равенство перед законом должно обеспечиваться независимо от общественного мнения о потерпевшем. Предыдущие правонарушения лица не лишают его права на защиту персональных данных;

6. Срочная необходимость образовательных программ для сотрудников уполномоченных органов, юристов, адвокатов, судей и общественности в области цифровых прав и современных технологий.

 

ЗАКЛЮЧЕНИЕ

 

Цифровая эпоха требует не революционных изменений в законодательстве, а эволюционного развития правоприменительной практики. Защита прав граждан в цифровой среде возможна уже сегодня при условии профессионального и последовательного применения существующих правовых норм.

Каждый случай безнаказанности цифровых правонарушений создает опасный прецедент и подрывает доверие граждан к системе правосудия. Особенно недопустимо это в случаях, затрагивающих права детей и уязвимых групп населения.

Будущее цифровых прав в Казахстане зависит от готовности правовой системы адаптироваться к технологическим вызовам, сохраняя при этом фундаментальные принципы справедливости и равенства. Время для действий - сейчас.

В завершение, ещё раз подчеркну: цель этой публикации - не оправдание, а предупреждение. Сегодня это может показаться «шуткой», завтра - обернуться цифровым насилием над другим человеком. Борьба с насилием требует ответственности, а не цифрового линчевания.

Мы не можем оправдывать нарушение прав личности даже самыми благими намерениями. Цифровые технологии - не игрушка. Это инструмент, который требует зрелой, взвешенной и ответственной позиции. Особенно - в чувствительных вопросах, связанных с насилием, детьми или человеческим достоинством.

Казнить нельзя помиловать - но где поставить запятую, решать правоприменителям.

________________________________________________________________________

© 2025 Все права защищены. Настоящая публикация является интеллектуальной собственностью автора и защищена законом об авторском праве. Любое использование материалов данной публикации (полностью или частично) допускается только при условии указания прямой активной ссылки на оригинальный источник. Несанкционированное использование, копирование или распространение материалов без соответствующего разрешения является нарушением закона.

 

 


[1] Позиция автора о том, что обработка персональных данных может осуществляться в любой форме и не может ограничиваться перечнем действий, приведенных в Законе о персональных данных, нашла отражение и в ответе Комитета по информационной безопасности РК https://online.zakon.kz/Document/?doc_id=33626630

[2] https://library.witness.org/product/just-joking-report/

[3] AI and Deep Fake: Understanding the Contrasts. https://www.linkedin.com/pulse/ai-deep-fake-understanding-contrasts-jean-ng-web3-%E1%B5%8D%E1%B5%90/

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Укажите название закладки

Создать новую папку