🔈 Жалған ақпаратқа қарсы іс-қимыл орталығының үндеуі
Референдум өткізілетін күні ақпараттық кеңістікте түрлі фейктер, манипуляциялар, арандатушылық сипаттағы жарияланымдар мен бейнематериалдар таралуы мүмкін.
Мұндай ақпараттық шабуылдар көптеген елдерде сайлау және дауыс беру кезінде жиі тіркеледі. Олардың мақсаты — дауыс беру процесіне деген сенімсіздікті ояту және болып жатқан оқиғалар туралы теріс түсінік қалыптастыру.
Ең жиі кездесетін жалған мәліметтер мыналар туралы болуы мүмкін: жекелеген учаскелердің «жабылуы» немесе «ашылмауы»; сиясы өшіп қалатын қаламдар қолданылды, «бақылаушылардың жіберілмеуі» немесе «журналистердің шығарылуы»; «бюллетеньдердің жаппай тасталуы»; «азаматтарды дауыс беруге мәжбүрлеу» немесе «сайлаушыларды ұйымдасқан түрде тасымалдау»; «бюллетень толы қаптар», «алдын ала толтырылған жәшіктер» немесе «бос учаскелер»; «интернеттің бұғатталуы» немесе «электр қуатының өшірілуі».
Бұдан бөлек, әлемдік тәжірибеде кездесетін мынадай ақпараттық арандатулардың болуы ықтимал:
- мемлекеттік органдардың атынан жасалған жалған скриншоттарды, құжаттарды, кестелер мен хабарламаларды тарату;
- арандатушылық сауалнамалар, жалған экзит-полдар және учаскелердегі «төтенше жағдайлар» туралы хабарламалар;
- «Заң бұзушылық дәлелі» ретінде көрсету үшін учаске қызметкерлерімен әдейі ұйымдастырылған қақтығыстар. Мысалы, «дауыс берушілер тізіміне енгізбеу» секілді жағдайлар;
- мессенджерлердегі эмоционалды хабарламалардың жаппай таратылуы, әлеуметтік желілердегі боттар мен пікір жазу толқындары.
Мұндай материалдарда көбінесе ескі бейнероликтер мен фотосуреттер, басқа елдердегі оқиғалар, түсірілген уақыты мен орны белгісіз үзінділер және анонимді аккаунттардың жазбалары пайдаланылады.
Қазіргі технологиялар монтаж немесе өте «шынайы» көрінетін жасанды сурет, аудио және видео контент жасау мүмкіндігі де бар екенін есте сақтаңыз.
⭕️ Расталмаған ақпаратты таратпаңыз! Тек ресми ақпарат көздеріне сүйеніңіз. Күмән тудыратын материалдарды байқасаңыз, Орталықтың чат-ботына (@AntiFakeCenterBot) жолдауыңызды сұраймыз. Сіздің қырағылығыңыз дауыс беру күні тыныш әрі сенімді жағдайды сақтауға көмектеседі.
Референдум өткізілетін күні ақпараттық кеңістікте түрлі фейктер, манипуляциялар, арандатушылық сипаттағы жарияланымдар мен бейнематериалдар таралуы мүмкін.
Мұндай ақпараттық шабуылдар көптеген елдерде сайлау және дауыс беру кезінде жиі тіркеледі. Олардың мақсаты — дауыс беру процесіне деген сенімсіздікті ояту және болып жатқан оқиғалар туралы теріс түсінік қалыптастыру.
Ең жиі кездесетін жалған мәліметтер мыналар туралы болуы мүмкін: жекелеген учаскелердің «жабылуы» немесе «ашылмауы»; сиясы өшіп қалатын қаламдар қолданылды, «бақылаушылардың жіберілмеуі» немесе «журналистердің шығарылуы»; «бюллетеньдердің жаппай тасталуы»; «азаматтарды дауыс беруге мәжбүрлеу» немесе «сайлаушыларды ұйымдасқан түрде тасымалдау»; «бюллетень толы қаптар», «алдын ала толтырылған жәшіктер» немесе «бос учаскелер»; «интернеттің бұғатталуы» немесе «электр қуатының өшірілуі».
Бұдан бөлек, әлемдік тәжірибеде кездесетін мынадай ақпараттық арандатулардың болуы ықтимал:
- мемлекеттік органдардың атынан жасалған жалған скриншоттарды, құжаттарды, кестелер мен хабарламаларды тарату;
- арандатушылық сауалнамалар, жалған экзит-полдар және учаскелердегі «төтенше жағдайлар» туралы хабарламалар;
- «Заң бұзушылық дәлелі» ретінде көрсету үшін учаске қызметкерлерімен әдейі ұйымдастырылған қақтығыстар. Мысалы, «дауыс берушілер тізіміне енгізбеу» секілді жағдайлар;
- мессенджерлердегі эмоционалды хабарламалардың жаппай таратылуы, әлеуметтік желілердегі боттар мен пікір жазу толқындары.
Мұндай материалдарда көбінесе ескі бейнероликтер мен фотосуреттер, басқа елдердегі оқиғалар, түсірілген уақыты мен орны белгісіз үзінділер және анонимді аккаунттардың жазбалары пайдаланылады.
Қазіргі технологиялар монтаж немесе өте «шынайы» көрінетін жасанды сурет, аудио және видео контент жасау мүмкіндігі де бар екенін есте сақтаңыз.
⭕️ Расталмаған ақпаратты таратпаңыз! Тек ресми ақпарат көздеріне сүйеніңіз. Күмән тудыратын материалдарды байқасаңыз, Орталықтың чат-ботына (@AntiFakeCenterBot) жолдауыңызды сұраймыз. Сіздің қырағылығыңыз дауыс беру күні тыныш әрі сенімді жағдайды сақтауға көмектеседі.
👍3🔥3
🔈 Обращение Центра по борьбе с дезинформацией
В день проведения референдума в информационном пространстве могут появляться различные фейки, манипуляции и провокационные публикации, и видеоматериалы.
Подобные информационные вбросы регулярно фиксируются во многих странах в дни выборов и голосований. Их цель - создать атмосферу недоверия к процедуре голосования и сформировать искажённое представление о происходящих событиях.
Наиболее распространены вбросы о якобы: «закрытии» или «неоткрытии» отдельных участков, ручках с исчезающими чернилами, «недопуске наблюдателей» или «удалении журналистов», «массовых вбросах бюллетеней», «принуждении граждан к участию в голосовании», «подвозе избирателей», «мешках с бюллетенями» или «заранее заполненных урнах», «пустых участках», «блокировке интернета» или «отключении электричества».
Кроме того, возможны дополнительные информационные провокации, которые неоднократно фиксировались в разных странах во время выборов:
- распространение поддельных скриншотов, документов, таблиц и сообщений якобы от госорганов;
- провокационные опросы, фейковые экзит-полы и сообщения о чрезвычайных происшествиях на участках для голосования;
- постановочные и спровоцированные конфликты с персоналом участков для создания «доказательств нарушений». Например, таких как «невключение в списки голосующих»;
- массовая рассылка эмоциональных сообщений в мессенджерах и координированные волны комментариев и боты в социальных сетях.
Чаще всего в подобных публикациях используются старые видеоролики и фотографии, материалы из других стран, фрагменты записей без указания времени и места съемки, публикации анонимных аккаунтов.
Современные технологии также позволяют создавать подобный контент с использованием монтажа или генерации «достоверных» изображений, аудио и видео.
⭕️ Не распространяйте неподтверждённые сообщения. Ориентируйтесь только на официальные источники информации. При обнаружении сомнительных материалов направляйте в чат-бот Центра (@AntiFakeCenterBot). Ваша внимательность поможет сохранить спокойную и доброжелательную атмосферу в день голосования.
В день проведения референдума в информационном пространстве могут появляться различные фейки, манипуляции и провокационные публикации, и видеоматериалы.
Подобные информационные вбросы регулярно фиксируются во многих странах в дни выборов и голосований. Их цель - создать атмосферу недоверия к процедуре голосования и сформировать искажённое представление о происходящих событиях.
Наиболее распространены вбросы о якобы: «закрытии» или «неоткрытии» отдельных участков, ручках с исчезающими чернилами, «недопуске наблюдателей» или «удалении журналистов», «массовых вбросах бюллетеней», «принуждении граждан к участию в голосовании», «подвозе избирателей», «мешках с бюллетенями» или «заранее заполненных урнах», «пустых участках», «блокировке интернета» или «отключении электричества».
Кроме того, возможны дополнительные информационные провокации, которые неоднократно фиксировались в разных странах во время выборов:
- распространение поддельных скриншотов, документов, таблиц и сообщений якобы от госорганов;
- провокационные опросы, фейковые экзит-полы и сообщения о чрезвычайных происшествиях на участках для голосования;
- постановочные и спровоцированные конфликты с персоналом участков для создания «доказательств нарушений». Например, таких как «невключение в списки голосующих»;
- массовая рассылка эмоциональных сообщений в мессенджерах и координированные волны комментариев и боты в социальных сетях.
Чаще всего в подобных публикациях используются старые видеоролики и фотографии, материалы из других стран, фрагменты записей без указания времени и места съемки, публикации анонимных аккаунтов.
Современные технологии также позволяют создавать подобный контент с использованием монтажа или генерации «достоверных» изображений, аудио и видео.
⭕️ Не распространяйте неподтверждённые сообщения. Ориентируйтесь только на официальные источники информации. При обнаружении сомнительных материалов направляйте в чат-бот Центра (@AntiFakeCenterBot). Ваша внимательность поможет сохранить спокойную и доброжелательную атмосферу в день голосования.
👍4🔥2❤1👎1
⚡️ Жалған ақпаратқа қарсы іс-қимыл орталығы қазірдің өзінде желіде типтік ақпараттық шабуылдар сериясын тіркеуде.
Бұған дейін біз болжағандай (1-пост, 2-пост), референдум өткізу күні ақпараттық кеңістікте дауыс беру рәсіміне сенімсіздік тудыруға бағытталған типтік фейктер мен манипуляциялар пайда болып, тарала бастады.
Көп жағдайда мұндай материалдар анонимді немесе жаңадан ашылған аккаунттар арқылы таратылуда.
Қазіргі уақытта мұндай жарияланымдардың ең көп саны Threads, TikTok және Facebook платформаларында байқалады.
Ең көп таралған ақпараттық шабуыл түрлері (тіркелу жиілігі бойынша):
1 орын - «Бюллетеньдерді жаппай тастау» туралы мұрағаттық бейнероликтер (6 жарияланым).
2 орын - «Қазақстан қалаларындағы митингілер» туралы мұрағаттық және жасанды интеллект көмегімен жасалған материалдар (5 жарияланым). Видеоның үстіне референдумға қатысы бар деген жалған мәтін жазылған.
3 орын - Сайлаушылардың келуі төмендігі туралы негізсіз хабарламалар (4 жарияланым). Ешқандай ресми деректермен расталмаған мәліметтер.
4 орын - «Сайлау учаскелеріндегі қақтығыстар» туралы мұрағаттық бейнелер (1 жарияланым). Осыдан 5-10 жыл бұрын, соның ішінде шетелде түсірілген ескі видеолар қолданылған.
Платформалар бойынша мониторинг көрсеткіштері:
Threads - жарияланымдардың шамамен 65%-ы;
TikTok - шамамен 25%-ы;
Facebook - шамамен 10%-ы.
Электоралдық науқандарды бақылау тәжірибесіне сүйенсек, дауыс беру күні ақпараттық шабуылдар толқын түрінде дамып, кешке қарай жаңа кезеңге өтеді.
Шамамен, сағат 18:00-ге қарай келесідей үрдістер күтіледі:
- «күндіз жасырылған жаппай заң бұзушылықтар» туралы хабарламалар;
- жалған экзит-полл (сауалнама) нәтижелері;
- «анықталған нәтижелер» деген желеумен таратылатын жалған мәліметтер;
- «қорытындыларды бұрмалауға дайындық» туралы жарияланымдар;
- «дауыстарды санау кезінде бюллетеньдерді ауыстыру» туралы пайымдаулар;
- «сайлау жәшіктерін жасырын алып кету» туралы жалған ақпарат;
- жалған «қорытынды құжаттарды» жариялау;
- референдумды «заңсыз» немесе «өтпеді» деп тану туралы мәлімдемелер.
Әрбiр осындай факт бойынша Заңда белгiленген тәртiппен тексеру жүргiзiледi.
‼️ Орталық азаматтарды ақпаратқа мұқият болуға, расталмаған жарияланымдарға сүйеніп асығыс қорытынды жасамауға және фейктерді таратуға жол бермеуге шақырады.
Дауыс беру барысы мен оның қорытындылары туралы ресми мәліметтерді заңнамада белгіленген тәртіппен жариялайды.
Сіздің қырағылығыңыз дауыс беру күні тұрақтылық пен жауапты атмосфераны сақтауға көмектеседі.
Бұған дейін біз болжағандай (1-пост, 2-пост), референдум өткізу күні ақпараттық кеңістікте дауыс беру рәсіміне сенімсіздік тудыруға бағытталған типтік фейктер мен манипуляциялар пайда болып, тарала бастады.
Көп жағдайда мұндай материалдар анонимді немесе жаңадан ашылған аккаунттар арқылы таратылуда.
Қазіргі уақытта мұндай жарияланымдардың ең көп саны Threads, TikTok және Facebook платформаларында байқалады.
Ең көп таралған ақпараттық шабуыл түрлері (тіркелу жиілігі бойынша):
1 орын - «Бюллетеньдерді жаппай тастау» туралы мұрағаттық бейнероликтер (6 жарияланым).
2 орын - «Қазақстан қалаларындағы митингілер» туралы мұрағаттық және жасанды интеллект көмегімен жасалған материалдар (5 жарияланым). Видеоның үстіне референдумға қатысы бар деген жалған мәтін жазылған.
3 орын - Сайлаушылардың келуі төмендігі туралы негізсіз хабарламалар (4 жарияланым). Ешқандай ресми деректермен расталмаған мәліметтер.
4 орын - «Сайлау учаскелеріндегі қақтығыстар» туралы мұрағаттық бейнелер (1 жарияланым). Осыдан 5-10 жыл бұрын, соның ішінде шетелде түсірілген ескі видеолар қолданылған.
Платформалар бойынша мониторинг көрсеткіштері:
Threads - жарияланымдардың шамамен 65%-ы;
TikTok - шамамен 25%-ы;
Facebook - шамамен 10%-ы.
Электоралдық науқандарды бақылау тәжірибесіне сүйенсек, дауыс беру күні ақпараттық шабуылдар толқын түрінде дамып, кешке қарай жаңа кезеңге өтеді.
Шамамен, сағат 18:00-ге қарай келесідей үрдістер күтіледі:
- «күндіз жасырылған жаппай заң бұзушылықтар» туралы хабарламалар;
- жалған экзит-полл (сауалнама) нәтижелері;
- «анықталған нәтижелер» деген желеумен таратылатын жалған мәліметтер;
- «қорытындыларды бұрмалауға дайындық» туралы жарияланымдар;
- «дауыстарды санау кезінде бюллетеньдерді ауыстыру» туралы пайымдаулар;
- «сайлау жәшіктерін жасырын алып кету» туралы жалған ақпарат;
- жалған «қорытынды құжаттарды» жариялау;
- референдумды «заңсыз» немесе «өтпеді» деп тану туралы мәлімдемелер.
Әрбiр осындай факт бойынша Заңда белгiленген тәртiппен тексеру жүргiзiледi.
‼️ Орталық азаматтарды ақпаратқа мұқият болуға, расталмаған жарияланымдарға сүйеніп асығыс қорытынды жасамауға және фейктерді таратуға жол бермеуге шақырады.
Дауыс беру барысы мен оның қорытындылары туралы ресми мәліметтерді заңнамада белгіленген тәртіппен жариялайды.
Сіздің қырағылығыңыз дауыс беру күні тұрақтылық пен жауапты атмосфераны сақтауға көмектеседі.
Telegram
JAQ.OrtCom.kz
📌 Республикалық референдум қарсаңында Жалған ақпаратқа қарсы іс-қимыл орталығы жаңа Конституция жобасының мәтініне де, референдум өткізілуіне де қатысты жалған және манипуляциялық ақпарат тарату фактілерінің азайғанын атап өтеді.
Мониторинг деректері бойынша…
Мониторинг деректері бойынша…
🔥3👍2👏1
⚡️ Центр по борьбе с дезинформацией уже фиксирует в сети серию типичных информационных вбросов
Как и прогнозировалось нами ранее (пост-1, пост-2), в день проведения референдума в информационном пространстве стали появляться и множиться типовые фейки и манипуляции, направленные на формирование недоверия к процедуре голосования.
В большинстве случаев они распространяются анонимными или недавно созданными аккаунтами.
По состоянию на текущий момент наибольшее количество подобных публикаций зафиксировано на платформах Threads, TikTok и Facebook.
Наиболее распространенные типы вбросов (по частоте фиксации):
1 место – Архивные видеоролики про якобы «массовые вбросы бюллетеней» (6 публикаций).
2 место - Архивные и сгенерированные с помощью искусственного интеллекта материалы якобы про «митинги в городах Казахстана» с наложенным поверх видео текстом, отсылающим к референдуму (5 публикаций).
3 место - Голословные сообщения о якобы низкой явке без подтверждающих сведений (4 публикации).
4 место - Архивные видео, снятые 5-10 лет назад, в том числе за рубежом о «конфликтах на избирательных участках» (1 публикация).
Частота упоминаний по площадкам (оперативный мониторинг):
Threads - около 65% публикаций
TikTok - около 25%
Facebook - около 10%
По опыту мониторинга электоральных кампаний в разных странах, в течение дня голосования информационная активность вбросов обычно развивается волнообразно и к вечеру переходит в новую фазу.
В период около 18 часов можно ожидать следующие тенденции:
- сообщения о «массовых нарушениях, которые якобы скрывали днем»;
- фейковые экзит-поллы;
- «сливы» с якобы уже известными результатами;
- публикации о «подготовке фальсификации итогов»;
- утверждения о «подмене бюллетеней при подсчете»;
- сообщения о «тайном вывозе урн»;
- публикации «документов» с якобы итоговыми результатами;
- заявления о «признании референдума незаконным» или «несостоявшимся».
По каждому подобному вбросу в установленном Законом порядке проводится проверка.
‼️ Центр призывает граждан внимательно относиться к распространяемой информации, не делать поспешных выводов на основе неподтвержденных публикаций и не становиться невольными участниками распространения фейков.
Официальные данные о ходе голосования и его итогах публикуются в установленном законодательством порядке.
Ваша внимательность помогает сохранить спокойную и ответственную атмосферу в день голосования.
Как и прогнозировалось нами ранее (пост-1, пост-2), в день проведения референдума в информационном пространстве стали появляться и множиться типовые фейки и манипуляции, направленные на формирование недоверия к процедуре голосования.
В большинстве случаев они распространяются анонимными или недавно созданными аккаунтами.
По состоянию на текущий момент наибольшее количество подобных публикаций зафиксировано на платформах Threads, TikTok и Facebook.
Наиболее распространенные типы вбросов (по частоте фиксации):
1 место – Архивные видеоролики про якобы «массовые вбросы бюллетеней» (6 публикаций).
2 место - Архивные и сгенерированные с помощью искусственного интеллекта материалы якобы про «митинги в городах Казахстана» с наложенным поверх видео текстом, отсылающим к референдуму (5 публикаций).
3 место - Голословные сообщения о якобы низкой явке без подтверждающих сведений (4 публикации).
4 место - Архивные видео, снятые 5-10 лет назад, в том числе за рубежом о «конфликтах на избирательных участках» (1 публикация).
Частота упоминаний по площадкам (оперативный мониторинг):
Threads - около 65% публикаций
TikTok - около 25%
Facebook - около 10%
По опыту мониторинга электоральных кампаний в разных странах, в течение дня голосования информационная активность вбросов обычно развивается волнообразно и к вечеру переходит в новую фазу.
В период около 18 часов можно ожидать следующие тенденции:
- сообщения о «массовых нарушениях, которые якобы скрывали днем»;
- фейковые экзит-поллы;
- «сливы» с якобы уже известными результатами;
- публикации о «подготовке фальсификации итогов»;
- утверждения о «подмене бюллетеней при подсчете»;
- сообщения о «тайном вывозе урн»;
- публикации «документов» с якобы итоговыми результатами;
- заявления о «признании референдума незаконным» или «несостоявшимся».
По каждому подобному вбросу в установленном Законом порядке проводится проверка.
‼️ Центр призывает граждан внимательно относиться к распространяемой информации, не делать поспешных выводов на основе неподтвержденных публикаций и не становиться невольными участниками распространения фейков.
Официальные данные о ходе голосования и его итогах публикуются в установленном законодательством порядке.
Ваша внимательность помогает сохранить спокойную и ответственную атмосферу в день голосования.
Telegram
JAQ.OrtCom.kz
📌 В преддверии республиканского референдума Центр по борьбе с дезинформацией отмечает снижение количества случаев распространения ложной и манипулятивной информации, связанной как с текстом проекта новой Конституции, так и с самим проведением референдума.…
🔥6👏2❤1👍1👎1
📌 Дауыс берудің аяқталуына байланысты Жалған ақпаратқа қарсы іс-қимыл орталығы ақпараттық кеңістікке жүргізілетін мониторингті жалғастыруда.
Бұған дейін болжанғандай, күні бойы дауыс беру рәсіміне қатысты типтік фейктер мен манипуляциялық материалдардың таралуы тіркелді (1-пост, 2-пост).
Сайлау учаскелерінің жабылуымен мұндай ақпараттық шабуылдардың белсенділігі, әдетте жаңа кезеңге өтеді. Орталықтың болжамы бойынша, жалған ақпараттың қарқыны түпкілікті бәсеңдегенге дейін негізгі екпін дауыс беру процесінен дауыстарды санау рәсімі мен оның нәтижелеріне күмән келтіруге ауысады.
Атап айтқанда, ақпараттық кеңістікте мынадай мәліметтер таралуы мүмкін:
- дауыс берудің нәтижелері алдын ала белгілі болды делінген «ақпараттың тарап кетуі»;
- жалған экзит-полл нәтижелері;
- «дауыс санау кезінде бюллетеньдерді ауыстыру» туралы негізсіз мәлімдемелер;
- «сайлау жәшіктерін» немесе құжаттаманы «жасырын алып кету» туралы хабарламалар;
- желіде таратылатын, қорытынды нәтижелер ретінде ұсынылған «құжаттар» мен кестелер;
- "референдумды өтпеді деп тану" туралы негізсіз мәлімдемелер.
Түрлі елдердегі электоралдық науқандарды бақылау тәжірибесі көрсеткендей, қандай ма ақпараттық шабуылдардың бір бөлігі келесі күні де таралуы мүмкін. Бұл кезеңде дауыс берудің жекелеген эпизодтарын бұрмалап көрсету, сондай-ақ референдумның маңыздылығын төмендетуге бағытталған жарияланымдар жиі пайда болуы мүмкін.
‼️ Жалған ақпаратқа қарсы іс-қимыл орталығы жалған ақпарат тарату фактілерін анықтауды және қоғамдық пікірді манипуляциялау әрекеттеріне жедел ден қоюды жалғастырады.
Бұған дейін болжанғандай, күні бойы дауыс беру рәсіміне қатысты типтік фейктер мен манипуляциялық материалдардың таралуы тіркелді (1-пост, 2-пост).
Сайлау учаскелерінің жабылуымен мұндай ақпараттық шабуылдардың белсенділігі, әдетте жаңа кезеңге өтеді. Орталықтың болжамы бойынша, жалған ақпараттың қарқыны түпкілікті бәсеңдегенге дейін негізгі екпін дауыс беру процесінен дауыстарды санау рәсімі мен оның нәтижелеріне күмән келтіруге ауысады.
Атап айтқанда, ақпараттық кеңістікте мынадай мәліметтер таралуы мүмкін:
- дауыс берудің нәтижелері алдын ала белгілі болды делінген «ақпараттың тарап кетуі»;
- жалған экзит-полл нәтижелері;
- «дауыс санау кезінде бюллетеньдерді ауыстыру» туралы негізсіз мәлімдемелер;
- «сайлау жәшіктерін» немесе құжаттаманы «жасырын алып кету» туралы хабарламалар;
- желіде таратылатын, қорытынды нәтижелер ретінде ұсынылған «құжаттар» мен кестелер;
- "референдумды өтпеді деп тану" туралы негізсіз мәлімдемелер.
Түрлі елдердегі электоралдық науқандарды бақылау тәжірибесі көрсеткендей, қандай ма ақпараттық шабуылдардың бір бөлігі келесі күні де таралуы мүмкін. Бұл кезеңде дауыс берудің жекелеген эпизодтарын бұрмалап көрсету, сондай-ақ референдумның маңыздылығын төмендетуге бағытталған жарияланымдар жиі пайда болуы мүмкін.
‼️ Жалған ақпаратқа қарсы іс-қимыл орталығы жалған ақпарат тарату фактілерін анықтауды және қоғамдық пікірді манипуляциялау әрекеттеріне жедел ден қоюды жалғастырады.
Telegram
JAQ.OrtCom.kz
📌 Республикалық референдум қарсаңында Жалған ақпаратқа қарсы іс-қимыл орталығы жаңа Конституция жобасының мәтініне де, референдум өткізілуіне де қатысты жалған және манипуляциялық ақпарат тарату фактілерінің азайғанын атап өтеді.
Мониторинг деректері бойынша…
Мониторинг деректері бойынша…
🔥4👏2👍1
⚡️ По мере завершения голосования Центром по борьбе с дезинформацией продолжается мониторинг информационного пространства.
Как и прогнозировалось ранее, в течение дня фиксировалось распространение типовых фейков и манипулятивных публикаций, связанных с процедурой голосования (смотрите здесь и здесь).
С закрытием избирательных участков информационная активность подобных вбросов, как правило, переходит в новую фазу. По нашему прогнозу прежде, чем пойти окончательно на спад, основной акцент сместится с попыток дискредитировать процесс голосования на попытки дискредитировать результаты и процедуру подсчета голосов.
В частности, в информационном пространстве могут распространяться:
- так называемые «сливы» с якобы уже известными результатами голосования;
- публикации фейковых экзит-полов;
- утверждения о «подмене бюллетеней при подсчете»;
- сообщения о «тайном вывозе урн» или документации;
- распространяемые в сети «документы» и таблицы с якобы итоговыми результатами;
- заявления о «признании референдума несостоявшимся».
По опыту мониторинга электоральных кампаний в различных странах, какая-то часть информационных вбросов может продолжить распространяться и в течение следующего дня. В этот период возможны гротескные интерпретации отдельных эпизодов голосования, а также публикации, направленные на искажение восприятия референдума как значительного события.
‼️ Центр по борьбе с дезинформацией продолжит информировать о выявляемых случаях распространения недостоверной информации и оперативно реагировать на подобные попытки манипуляции общественным мнением.
Как и прогнозировалось ранее, в течение дня фиксировалось распространение типовых фейков и манипулятивных публикаций, связанных с процедурой голосования (смотрите здесь и здесь).
С закрытием избирательных участков информационная активность подобных вбросов, как правило, переходит в новую фазу. По нашему прогнозу прежде, чем пойти окончательно на спад, основной акцент сместится с попыток дискредитировать процесс голосования на попытки дискредитировать результаты и процедуру подсчета голосов.
В частности, в информационном пространстве могут распространяться:
- так называемые «сливы» с якобы уже известными результатами голосования;
- публикации фейковых экзит-полов;
- утверждения о «подмене бюллетеней при подсчете»;
- сообщения о «тайном вывозе урн» или документации;
- распространяемые в сети «документы» и таблицы с якобы итоговыми результатами;
- заявления о «признании референдума несостоявшимся».
По опыту мониторинга электоральных кампаний в различных странах, какая-то часть информационных вбросов может продолжить распространяться и в течение следующего дня. В этот период возможны гротескные интерпретации отдельных эпизодов голосования, а также публикации, направленные на искажение восприятия референдума как значительного события.
‼️ Центр по борьбе с дезинформацией продолжит информировать о выявляемых случаях распространения недостоверной информации и оперативно реагировать на подобные попытки манипуляции общественным мнением.
Telegram
JAQ.OrtCom.kz
📌 В преддверии республиканского референдума Центр по борьбе с дезинформацией отмечает снижение количества случаев распространения ложной и манипулятивной информации, связанной как с текстом проекта новой Конституции, так и с самим проведением референдума.…
👏4👍2👎2❤1🔥1
🔈 2026 жылы генеративті контент технологиялық эксперименттер санатынан біржола шығып, құқықтық реттеу нысанына айналды.
Егер бұрын нейрожелі көмегімен жасалған кескіндер мен бейнелер зиянсыз цифрлық құрал ретінде қабылданса, бүгінде олар ақпараттық қауіп-қатер факторы ретінде қарастырылады.
Мемлекеттер жекелеген ескертулер беруден мұндай контентті жасау мен таратудың нақты ережелерін бекітуге көшуде.
Әлем елдері таңбаланбаған немесе адастырушы ЖИ-контентке мүлдем төзбеушілік танытуда:
Үндістан: Премьер-министр Модидің дипфейгін жасағаны үшін қамауға алу.
АҚШ: «Синтетикалық адамды» таңбалаусыз пайдаланғаны үшін жарнама агенттігіне $5,000 айыппұл салынды.
Түркия: Министрдің жалған мәлімдемесі бар ЖИ-бейне үшін порталға жылдық айналымның 5% мөлшерінде айыппұл салынды.
Оңтүстік Корея: ЖИ-сұхбатты белгілемегені үшін медиа компанияға 30 млн вон ($22,000) айыппұл салынды.
Қытай: Жүргізушілер арасында дүрбелең тудырған «жолдың опырылуы» туралы ЖИ-суреттер үшін блогердің ұсталуы.
Германия: Сот шешімі: сатиралық сипат ЖИ-туындыларды таңбалау міндетінен босатпайды.
БАӘ: Қоғамды адастыруға және ұлттық қауіпсіздікке нұқсан келтіруге бағытталған ЖИ бейнелерін таратқаны үшін ұстау шаралары жүргізілді.
Ұлыбритания: Келісімсіз дипфейк жасауға тыйым салатын жаңа заң бойынша алғашқы талап-арыздар (2026 жылғы ақпан).
Пәкістан: Әскерилердің атынан жасалған «үкіметті сынау» ЖИ-аудиожазбасы үшін кибертерроризм бабымен қозғалған іс.
Канада: Митингілерге себеп болған «ғимараттың құлауы» ЖИ- рендері үшін айыппұл салынды.
Франция: «Версальдағы тәртіпсіздіктердің» ЖИ-фотосуреттерін жасап, таратқаны үшін интернет-ресурс бұғатталды.
Италия: «Болмыста жоқ ескерткіштердің» ЖИ-кескіндерін пайдаланған туристік агенттікке қарсы талап-арыз.
Жапония: Марқұм актердің ЖИ-көшірмесін барлық мұрагерлердің келісімінсіз пайдалану бойынша сот талқылауы.
Сингапур: «Шығанақтың ластануы» туралы ЖИ-кескіндер үшін жалған ақпаратқа қарсы іс-қимыл заңнамасы шеңберіндегі нұсқама.
Австралия: Профессордың ЖИ-клонын оның келісімінсіз пайдаланған онлайн-курс ұйымдастырушыларына айыппұл салынды.
Аргентина: Полицияға қарсы зорлық-зомбылыққа шақырған дипфейк жасағаны үшін ұстау.
Эстония: Мемлекеттік органдардың жауап беру стилін имитациялаған бот иесіне ресми ескерту жасалды.
Қазақстанда да ЖИ саласы енді «реттелмейтін аймақ» емес. Керісінше, оны қолдану салдары, ең алдымен, аудиторияны адастыру қаупі тұрғысынан қарастырылады.
2026 жылдың 17 наурызында Семей қаласының тұрғыны нейрожелі жасаған фотосуретті таратқаны үшін жауапқа тартылды. Генерацияланған кескін төтенше жағдай туралы шынайы хабарлама ретінде ұсынылып, әлеуметтік желілерде дүрбелең тудырған. Нәтижесінде - ҚР ӘҚБтК-нің 456-2-бабы (жалған ақпарат тарату) бойынша хаттама толтырылды.
‼️ Жалған ақпаратқа қарсы іс-қимыл орталығы медиа өкілдері мен цифрлық контент жасаушыларға заңнама талаптарын қатаң сақтауды, соның ішінде ЖИ-контентті міндетті түрде таңбалауды және жалған ақпараттың таралуына жол бермеуді ескертеді.
Азаматтарға таратылатын материалдарға сын көзбен қарап, дереккөздерін тексеріп, олардың дұрыстығына көз жеткізбей, әрі қарай таратпауға кеңес беріледі.
Егер бұрын нейрожелі көмегімен жасалған кескіндер мен бейнелер зиянсыз цифрлық құрал ретінде қабылданса, бүгінде олар ақпараттық қауіп-қатер факторы ретінде қарастырылады.
Мемлекеттер жекелеген ескертулер беруден мұндай контентті жасау мен таратудың нақты ережелерін бекітуге көшуде.
Әлем елдері таңбаланбаған немесе адастырушы ЖИ-контентке мүлдем төзбеушілік танытуда:
Үндістан: Премьер-министр Модидің дипфейгін жасағаны үшін қамауға алу.
АҚШ: «Синтетикалық адамды» таңбалаусыз пайдаланғаны үшін жарнама агенттігіне $5,000 айыппұл салынды.
Түркия: Министрдің жалған мәлімдемесі бар ЖИ-бейне үшін порталға жылдық айналымның 5% мөлшерінде айыппұл салынды.
Оңтүстік Корея: ЖИ-сұхбатты белгілемегені үшін медиа компанияға 30 млн вон ($22,000) айыппұл салынды.
Қытай: Жүргізушілер арасында дүрбелең тудырған «жолдың опырылуы» туралы ЖИ-суреттер үшін блогердің ұсталуы.
Германия: Сот шешімі: сатиралық сипат ЖИ-туындыларды таңбалау міндетінен босатпайды.
БАӘ: Қоғамды адастыруға және ұлттық қауіпсіздікке нұқсан келтіруге бағытталған ЖИ бейнелерін таратқаны үшін ұстау шаралары жүргізілді.
Ұлыбритания: Келісімсіз дипфейк жасауға тыйым салатын жаңа заң бойынша алғашқы талап-арыздар (2026 жылғы ақпан).
Пәкістан: Әскерилердің атынан жасалған «үкіметті сынау» ЖИ-аудиожазбасы үшін кибертерроризм бабымен қозғалған іс.
Канада: Митингілерге себеп болған «ғимараттың құлауы» ЖИ- рендері үшін айыппұл салынды.
Франция: «Версальдағы тәртіпсіздіктердің» ЖИ-фотосуреттерін жасап, таратқаны үшін интернет-ресурс бұғатталды.
Италия: «Болмыста жоқ ескерткіштердің» ЖИ-кескіндерін пайдаланған туристік агенттікке қарсы талап-арыз.
Жапония: Марқұм актердің ЖИ-көшірмесін барлық мұрагерлердің келісімінсіз пайдалану бойынша сот талқылауы.
Сингапур: «Шығанақтың ластануы» туралы ЖИ-кескіндер үшін жалған ақпаратқа қарсы іс-қимыл заңнамасы шеңберіндегі нұсқама.
Австралия: Профессордың ЖИ-клонын оның келісімінсіз пайдаланған онлайн-курс ұйымдастырушыларына айыппұл салынды.
Аргентина: Полицияға қарсы зорлық-зомбылыққа шақырған дипфейк жасағаны үшін ұстау.
Эстония: Мемлекеттік органдардың жауап беру стилін имитациялаған бот иесіне ресми ескерту жасалды.
Қазақстанда да ЖИ саласы енді «реттелмейтін аймақ» емес. Керісінше, оны қолдану салдары, ең алдымен, аудиторияны адастыру қаупі тұрғысынан қарастырылады.
2026 жылдың 17 наурызында Семей қаласының тұрғыны нейрожелі жасаған фотосуретті таратқаны үшін жауапқа тартылды. Генерацияланған кескін төтенше жағдай туралы шынайы хабарлама ретінде ұсынылып, әлеуметтік желілерде дүрбелең тудырған. Нәтижесінде - ҚР ӘҚБтК-нің 456-2-бабы (жалған ақпарат тарату) бойынша хаттама толтырылды.
‼️ Жалған ақпаратқа қарсы іс-қимыл орталығы медиа өкілдері мен цифрлық контент жасаушыларға заңнама талаптарын қатаң сақтауды, соның ішінде ЖИ-контентті міндетті түрде таңбалауды және жалған ақпараттың таралуына жол бермеуді ескертеді.
Азаматтарға таратылатын материалдарға сын көзбен қарап, дереккөздерін тексеріп, олардың дұрыстығына көз жеткізбей, әрі қарай таратпауға кеңес беріледі.
🔥3👍2👏1
🔈 В 2026 году генеративный контент окончательно вышел из категории технологических экспериментов и стал объектом правового регулирования.
Если ранее нейросетевые изображения и видео воспринимались как безобидный цифровой инструмент, то сегодня они рассматриваются как фактор информационных рисков.
Государства переходят от точечных предупреждений к выстраиванию четких правил создания и распространения такого контента.
Различные страны демонстрируют фактическую нетерпимость к немаркированному или вводящему в заблуждение ИИ-контенту:
Индия: арест за создание дипфейка с Премьер-министром Моди.
США: штраф $5,000 рекламному агентству за использование «синтетического человека» без маркировки.
Турция: штраф в 5% от годового оборота порталу за ИИ-видео с фальшивым заявлением министра.
Южная Корея: штраф 30 млн вон ($22,000) медиа-компании за немаркированное ИИ-интервью.
Китай: арест блогера за ИИ-фото «обвала дороги», вызвавшие панику у водителей.
Германия: решение суда - сатира не освобождает от обязанности маркировать ИИ-подделки.
ОАЭ: задержания за ИИ-видео, направленных на введение общественности в заблуждение и подрыв национальной безопасности.
Великобритания: первые иски по новому закону о запрете создания дипфейков без согласия (февраль 2026).
Пакистан: дело о кибертерроризме за ИИ-аудио «критики правительства» военными.
Канада: штраф за ИИ-рендер «обрушения здания», спровоцировавший митинги.
Франция: блокировка ресурса за генерацию ИИ-фото «беспорядков в Версале».
Италия: иск к турагентству за ИИ-фото «несуществующих памятников».
Япония: судебное разбирательство за использование ИИ-копии умершего актера без согласия всех наследников.
Сингапур: предписание по линии законодательства о противодействии фейкам за ИИ-фото «загрязнения залива».
Австралия: штраф онлайн-курсам за использование ИИ-клона профессора без его ведома.
Аргентина: задержание за дипфейк с призывами к насилию против полиции.
Эстония: предупреждение владельцу бота, имитировавшего стиль ответов государственных органов.
В Казахстан ИИ также больше не является «зоной вне регулирования». Напротив, его использование рассматривается через призму последствий - прежде всего, риска введения аудитории в заблуждение.
17 марта 2026 года житель Семея привлечен к ответственности за распространение фотографии, созданной нейросетью. Сгенерированный снимок был подан как реальное сообщение о чрезвычайном происшествии и вызвал панику в социальных сетях. Итог - протокол по статье 456-2 КоАП РК (распространение ложной информации).
‼️ Центр по борьбе с дезинформацией обращает внимание представителей медиа и создателей цифрового контента на необходимость соблюдения требований законодательства, включая маркировку ИИ-контента и недопущение распространения ложной информации.
Гражданам рекомендуется критически относиться к распространяемым материалам, проверять источники и воздерживаться от их дальнейшего распространения без уверенности в достоверности.
Если ранее нейросетевые изображения и видео воспринимались как безобидный цифровой инструмент, то сегодня они рассматриваются как фактор информационных рисков.
Государства переходят от точечных предупреждений к выстраиванию четких правил создания и распространения такого контента.
Различные страны демонстрируют фактическую нетерпимость к немаркированному или вводящему в заблуждение ИИ-контенту:
Индия: арест за создание дипфейка с Премьер-министром Моди.
США: штраф $5,000 рекламному агентству за использование «синтетического человека» без маркировки.
Турция: штраф в 5% от годового оборота порталу за ИИ-видео с фальшивым заявлением министра.
Южная Корея: штраф 30 млн вон ($22,000) медиа-компании за немаркированное ИИ-интервью.
Китай: арест блогера за ИИ-фото «обвала дороги», вызвавшие панику у водителей.
Германия: решение суда - сатира не освобождает от обязанности маркировать ИИ-подделки.
ОАЭ: задержания за ИИ-видео, направленных на введение общественности в заблуждение и подрыв национальной безопасности.
Великобритания: первые иски по новому закону о запрете создания дипфейков без согласия (февраль 2026).
Пакистан: дело о кибертерроризме за ИИ-аудио «критики правительства» военными.
Канада: штраф за ИИ-рендер «обрушения здания», спровоцировавший митинги.
Франция: блокировка ресурса за генерацию ИИ-фото «беспорядков в Версале».
Италия: иск к турагентству за ИИ-фото «несуществующих памятников».
Япония: судебное разбирательство за использование ИИ-копии умершего актера без согласия всех наследников.
Сингапур: предписание по линии законодательства о противодействии фейкам за ИИ-фото «загрязнения залива».
Австралия: штраф онлайн-курсам за использование ИИ-клона профессора без его ведома.
Аргентина: задержание за дипфейк с призывами к насилию против полиции.
Эстония: предупреждение владельцу бота, имитировавшего стиль ответов государственных органов.
В Казахстан ИИ также больше не является «зоной вне регулирования». Напротив, его использование рассматривается через призму последствий - прежде всего, риска введения аудитории в заблуждение.
17 марта 2026 года житель Семея привлечен к ответственности за распространение фотографии, созданной нейросетью. Сгенерированный снимок был подан как реальное сообщение о чрезвычайном происшествии и вызвал панику в социальных сетях. Итог - протокол по статье 456-2 КоАП РК (распространение ложной информации).
‼️ Центр по борьбе с дезинформацией обращает внимание представителей медиа и создателей цифрового контента на необходимость соблюдения требований законодательства, включая маркировку ИИ-контента и недопущение распространения ложной информации.
Гражданам рекомендуется критически относиться к распространяемым материалам, проверять источники и воздерживаться от их дальнейшего распространения без уверенности в достоверности.
🔥4❤2👍1👏1
🔎 2026 жылғы 11-20 наурыз аралығындағы ресми теріске шығарулардың жиынтығы.
➡️ Фейк: 1,5 жастан асқан бала күтіміне байланысты демалыста жүрген әйелдерге жұмыссыздық бойынша жәрдемақы төленеді.
ҚР Еңбек және халықты әлеуметтік қорғау министрлігінің теріске шығаруы:
Бала күтіміне байланысты демалыста жүрген әйелдің жұмыс орны сақталады, сондықтан ол жұмыссыздар санатына жатпайды. Жұмысынан айырылу бойынша әлеуметтік төлемдер жұмыссыз ретінде ресми тіркелген және белгіленген талаптарға сәйкес келетін азаматтарға ғана тағайындалады.
➡️ Фейк: Еңбек шарттары туралы деректерді «HR Enbek» порталына уақтылы енгізбегені үшін жұмыс берушілерге айыппұл салынады.
ҚР Еңбек және халықты әлеуметтік қорғау министрлігінің теріске шығаруы:
Еңбек шарттарын есепке алу жүйесі жұмыс берушілерге шарттарды айыппұл санкцияларынсыз кез келген уақытта тіркеуге мүмкіндік береді. Әкімшілік жауапкершілік шаралары тек тексеру қорытындысы бойынша анықталған заң бұзушылықтар үшін ғана қарастырылған.
➡️Фейк: Таразда оқушы қыздар арасында жанжал болды. Оқиғаның кейбір мән-жайлары расталмады.
Жамбыл облысы Полиция департаментінің теріске шығаруы:
Тергеу әрекеттерінің нәтижесінде кәмелетке толмағандардың суық қару қолданғаны туралы ақпарат расталмады. Төбелес дерегі бойынша сотқа дейінгі тергеу амалдары жүргізіліп жатыр, оқиғаның барлық қатысушылары анықталды.
➡️ Фейк: Семей қаласындағы өндірістік цехты су басты.
Абай облысы Полиция департаментінің теріске шығаруы:
Цехты жалға алушы жасанды интеллект көмегімен «қалжыңдау мақсатында» фейк фотоматериалдар дайындаған. Су басу туралы ақпарат шындыққа жанаспайды. Кінәлі азамат жауапкершілікке тартылды.
ЖИ-контентке қатысты шетелдік құқық қолдану тәжірибесіне шолумен мына жерде таныса аласыз.
🔈 Қосымша:
➡️Бас прокуратураның Құқықтық статистика және арнайы есепке алу жөніндегі комитеті жанындағы Қоғамдық қауіпсіздікке төнетін қылмыстық қатерлер мен тәуекелдерді болжау орталығы азаматтарға «жалған курьерлерге» қатысты жаңа алаяқтық схема туралы ескертті.
➡️Атырау қаласында ақпараттық бопсалау (шантаж) дерегі бойынша сот үкімі шықты. Блогер кәсіпкерді бейнеролик арқылы бопсалағаны үшін кінәлі деп танылды.
➡️ Фейк: 1,5 жастан асқан бала күтіміне байланысты демалыста жүрген әйелдерге жұмыссыздық бойынша жәрдемақы төленеді.
ҚР Еңбек және халықты әлеуметтік қорғау министрлігінің теріске шығаруы:
Бала күтіміне байланысты демалыста жүрген әйелдің жұмыс орны сақталады, сондықтан ол жұмыссыздар санатына жатпайды. Жұмысынан айырылу бойынша әлеуметтік төлемдер жұмыссыз ретінде ресми тіркелген және белгіленген талаптарға сәйкес келетін азаматтарға ғана тағайындалады.
➡️ Фейк: Еңбек шарттары туралы деректерді «HR Enbek» порталына уақтылы енгізбегені үшін жұмыс берушілерге айыппұл салынады.
ҚР Еңбек және халықты әлеуметтік қорғау министрлігінің теріске шығаруы:
Еңбек шарттарын есепке алу жүйесі жұмыс берушілерге шарттарды айыппұл санкцияларынсыз кез келген уақытта тіркеуге мүмкіндік береді. Әкімшілік жауапкершілік шаралары тек тексеру қорытындысы бойынша анықталған заң бұзушылықтар үшін ғана қарастырылған.
➡️Фейк: Таразда оқушы қыздар арасында жанжал болды. Оқиғаның кейбір мән-жайлары расталмады.
Жамбыл облысы Полиция департаментінің теріске шығаруы:
Тергеу әрекеттерінің нәтижесінде кәмелетке толмағандардың суық қару қолданғаны туралы ақпарат расталмады. Төбелес дерегі бойынша сотқа дейінгі тергеу амалдары жүргізіліп жатыр, оқиғаның барлық қатысушылары анықталды.
➡️ Фейк: Семей қаласындағы өндірістік цехты су басты.
Абай облысы Полиция департаментінің теріске шығаруы:
Цехты жалға алушы жасанды интеллект көмегімен «қалжыңдау мақсатында» фейк фотоматериалдар дайындаған. Су басу туралы ақпарат шындыққа жанаспайды. Кінәлі азамат жауапкершілікке тартылды.
ЖИ-контентке қатысты шетелдік құқық қолдану тәжірибесіне шолумен мына жерде таныса аласыз.
🔈 Қосымша:
➡️Бас прокуратураның Құқықтық статистика және арнайы есепке алу жөніндегі комитеті жанындағы Қоғамдық қауіпсіздікке төнетін қылмыстық қатерлер мен тәуекелдерді болжау орталығы азаматтарға «жалған курьерлерге» қатысты жаңа алаяқтық схема туралы ескертті.
➡️Атырау қаласында ақпараттық бопсалау (шантаж) дерегі бойынша сот үкімі шықты. Блогер кәсіпкерді бейнеролик арқылы бопсалағаны үшін кінәлі деп танылды.
🔥2❤1👍1
🔎 Сводка официальных опровержений за период с 11 по 20 марта 2026 года.
➡️ Фейк: Женщинам, находящимся в отпуске по уходу за ребенком старше 1,5 лет, будет выплачиваться пособие по безработице.
Опровержение Министерства труда и социальной защиты населения РК:
За женщиной, находящейся в отпуске по уходу за ребенком, сохраняется рабочее место и поэтому она не относится к категории безработных. Выплаты по потере работы предоставляются гражданам, официально зарегистрированным в качестве безработных и согласно установленным требованиям.
➡️ Фейк: Штрафы для работодателей за несвоевременное внесение данных о трудовых договорах на портал HR Enbek.
Опровержение Министерства труда и социальной защиты населения РК:
Система учета трудовых договоров предоставляет работодателям возможность в любое время зарегистрировать договоры без применения штрафных мер. Административные меры ответственности предусмотрены только по итогам проверки.
➡️ Фейк: Конфликт среди школьниц в Таразе. Некоторые детали инцидента не подтвердились
Опровержение Департамента полиции Жамбылской области:
По результатам следственных действий информация о применении холодного оружия несовершеннолетними не подтвердилась. По факту драки проводится досудебное расследование, все участники установлены.
➡️ Фейк: Затопление производственного цеха в г. Семей.
Опровержение Департамента полиции области Абай:
Фотоматериалы сгенерированы с использованием ИИ арендатором цеха ради «шутки». Информация о затоплении не подтвердилась. Гражданин привлечен к ответственности.
Обзор зарубежной правоприменительной практики в отношении ИИ-контента можете изучить тут.
🔈 Дополнительно:
➡️ Центр прогнозирования преступных угроз и рисков общественной безопасности Комитета по правовой статистике и специальным учетам Генеральной прокуратуры предупредил граждан о новой мошеннической схеме с фейковыми курьерами.
➡️ В г. Атырау вынесен приговор за информационный шантаж как форму вымогательства.
➡️ Фейк: Женщинам, находящимся в отпуске по уходу за ребенком старше 1,5 лет, будет выплачиваться пособие по безработице.
Опровержение Министерства труда и социальной защиты населения РК:
За женщиной, находящейся в отпуске по уходу за ребенком, сохраняется рабочее место и поэтому она не относится к категории безработных. Выплаты по потере работы предоставляются гражданам, официально зарегистрированным в качестве безработных и согласно установленным требованиям.
➡️ Фейк: Штрафы для работодателей за несвоевременное внесение данных о трудовых договорах на портал HR Enbek.
Опровержение Министерства труда и социальной защиты населения РК:
Система учета трудовых договоров предоставляет работодателям возможность в любое время зарегистрировать договоры без применения штрафных мер. Административные меры ответственности предусмотрены только по итогам проверки.
➡️ Фейк: Конфликт среди школьниц в Таразе. Некоторые детали инцидента не подтвердились
Опровержение Департамента полиции Жамбылской области:
По результатам следственных действий информация о применении холодного оружия несовершеннолетними не подтвердилась. По факту драки проводится досудебное расследование, все участники установлены.
➡️ Фейк: Затопление производственного цеха в г. Семей.
Опровержение Департамента полиции области Абай:
Фотоматериалы сгенерированы с использованием ИИ арендатором цеха ради «шутки». Информация о затоплении не подтвердилась. Гражданин привлечен к ответственности.
Обзор зарубежной правоприменительной практики в отношении ИИ-контента можете изучить тут.
🔈 Дополнительно:
➡️ Центр прогнозирования преступных угроз и рисков общественной безопасности Комитета по правовой статистике и специальным учетам Генеральной прокуратуры предупредил граждан о новой мошеннической схеме с фейковыми курьерами.
➡️ В г. Атырау вынесен приговор за информационный шантаж как форму вымогательства.
www.gov.kz
Минтруда предупреждает о ложных схемах получения социальных выплат
В социальных сетях и мессенджерах распространяется недостоверная информация о возможности оформления женщинами социальных выплат по безработице после достижения ребенком возраста 1,5 лет.Авторы подобных рассылок предлагают гражданам зарегистрироваться в качестве…
👍2🔥1
📌 Жалған ақпаратқа қарсы іс-қимыл орталығы әлеуметтік желілерде Қазақстан Республикасы Қаржылық мониторинг агенттігі тарапынан әлеуметтік желілер мен мессенджерлердіпайдаланушыларды «жаппай аңду» туралы тарап жатқан негізсіз ақпараттарды анықтады.
Іс жүзінде Агенттік ұсынған интернеттегі тыйым салынған контенттің таралуына қарсы іс-қимыл жөніндегі Қағидалар тек ашық әрі жалпыға қолжетімді деректерді (қаржы пирамидаларын жарнамалауға, онлайн-казинолар мен заңсыз лотереяларды насихаттауға қатысты жарияланымдар мен репосттарды) мониторингілеуге бағытталған.
Аталған Қағидаларда азаматтардың жеке хат алмасуына ешқандай мониторинг жүргізу көзделмеген. Бұл туралы Агенттіктің өзі де бірнеше рет ресми түсініктеме берген болатын.
Осылайша, жеке хабарламаларды «бақылау» туралы мәлімдемелер шындыққа жанаспайды және қоғамды әдейі жаңылыстыру болып табылады.
‼️ Жалған ақпаратқа қарсы іс-қимыл орталығы БАҚ өкілдері мен цифрлық контент авторларын ақпаратты жариялауда жауапты болуға, фактілерді бұрмаламауға және азаматтардың шынайы ақпарат алу құқығын құрметтеуге шақырады.
Іс жүзінде Агенттік ұсынған интернеттегі тыйым салынған контенттің таралуына қарсы іс-қимыл жөніндегі Қағидалар тек ашық әрі жалпыға қолжетімді деректерді (қаржы пирамидаларын жарнамалауға, онлайн-казинолар мен заңсыз лотереяларды насихаттауға қатысты жарияланымдар мен репосттарды) мониторингілеуге бағытталған.
Аталған Қағидаларда азаматтардың жеке хат алмасуына ешқандай мониторинг жүргізу көзделмеген. Бұл туралы Агенттіктің өзі де бірнеше рет ресми түсініктеме берген болатын.
Осылайша, жеке хабарламаларды «бақылау» туралы мәлімдемелер шындыққа жанаспайды және қоғамды әдейі жаңылыстыру болып табылады.
‼️ Жалған ақпаратқа қарсы іс-қимыл орталығы БАҚ өкілдері мен цифрлық контент авторларын ақпаратты жариялауда жауапты болуға, фактілерді бұрмаламауға және азаматтардың шынайы ақпарат алу құқығын құрметтеуге шақырады.
👍3🔥1
📌 Центр по борьбе с дезинформацией фиксирует распространение в социальных сетях публикаций с громкими заголовками о якобы «тотальной слежке» за пользователями соцсетей и мессенджеров со стороны Агентства Республики Казахстан по финансовому мониторингу.
На деле Правила по противодействию распространению запрещенного контента в интернете, предлагаемые Агентством, касаются исключительно мониторинга открытых, общедоступных данных (публикаций и репостов), связанных с рекламой финансовых пирамид, продвижением онлайн-казино и незаконных лотерей.
Никакой мониторинг личной переписки граждан этими Правилами не предусмотрен. Это неоднократно разъясняло и само Агентство.
Таким образом, утверждения о «слежке» за личными сообщениями не соответствуют действительности и являются манипуляцией.
‼️ Центр по борьбе с дезинформацией призывает СМИ и авторов цифрового контента ответственно подходить к освещению подобных тем, избегать искажения фактов и уважать право граждан на получение достоверной информации.
На деле Правила по противодействию распространению запрещенного контента в интернете, предлагаемые Агентством, касаются исключительно мониторинга открытых, общедоступных данных (публикаций и репостов), связанных с рекламой финансовых пирамид, продвижением онлайн-казино и незаконных лотерей.
Никакой мониторинг личной переписки граждан этими Правилами не предусмотрен. Это неоднократно разъясняло и само Агентство.
Таким образом, утверждения о «слежке» за личными сообщениями не соответствуют действительности и являются манипуляцией.
‼️ Центр по борьбе с дезинформацией призывает СМИ и авторов цифрового контента ответственно подходить к освещению подобных тем, избегать искажения фактов и уважать право граждан на получение достоверной информации.
👍3❤1👎1🔥1👏1