Ivan Begtin
7.99K subscribers
1.82K photos
3 videos
101 files
4.53K links
I write about Open Data, Data Engineering, Government, Privacy, Digital Preservation and other gov related and tech stuff.

Founder of Dateno https://dateno.io

Telegram @ibegtin
Facebook - https://facebook.com/ibegtin
Secure contacts ivan@begtin.tech
Download Telegram
Для тех кто, возможно, это упустил, Информационная культура @infoculture ведёт много проектов о НКО, для НКО. Среди них такие проекты как:
- Открытые НКО https://openngo.ru большая база сведений о некоммерческих организациях, их бюджетах, контрактах, грантах, субсидиях, бюджетах и так далее
- Данные НКО https://ngodata.ru - портал для публикации данных некоммерческими организациями

И вот открылся ещё один проект - Исследования НКО https://ngo-research.ru, как цикл мероприятий для некоммерческих организаций о том как и почему нужны исследования и как их проводить.

2 мероприятия уже прошло, ещё 2 запланированы на ближайшие дни. На них исследователи расскажут как выявлять и решать реальные проблемы, с чего начинать и так далее. На сайте есть ссылки и регистрация на мероприятия.

#opendata #openresearch #ngo
Один из проектов которые я давно мониторю - это Archives Unleashed [1]. Проект по созданию инструментов с открытым кодом для обеспечения доступности веб-архивов для исследователей. Они сделали несколько инструментов таких как:
- Archives Unleashed Toolkit - удобное ПО для анализа WARC файлов
- Warclight - каталог для поиска и просмотра по WARC файлам
- Archives Unleashed Cloud - удобный поиск данных в веб архивах собранных сервисом Archive-It
и ещё много обучающих материалов в формате Jupyter Notebook.

У них на днях вышел Community Report за 2017-2020 годы [2]

И, в принципе, это очень хороший пример организации доступа исследователей к открытым данным.

Сам проект делается межуниверситетской командой, с основным грантополучателем University of Waterloo, финансируется Mellon Foundation, на $462,000 в 2017 году на 36 месяцев и сейчас в июне 2020 года ещё на $800,000 и 36 месяцев. Переводя в рубли - это 11 миллионов рублей в год по первому гранту и 20 миллионов рублей в год по второму гранту.

На команду из постоянно работающих 4 человек и 7 человек вовлеченных в проект в той или иной форме.

Но главное результат, это действительно очень полезный инструментарий.

Ссылки:
[1] https://archivesunleashed.org
[2] https://news.archivesunleashed.org/archives-unleashed-community-report-2017-2020-d997510e5b70

#opendata #openaccess #digitalpreservation
А почему ОАО "Большая российская энциклопедия" не публикует отченость с 2016 года?
Ни на официальном сайте [1] ни на официальной странице раскрытия информации [2]
Нет, как минимум за 4 года:
- список аффилированных лиц
- состава совета директоров
- годовых отчётов
- годовой бухгалтерской отчетности

Но это не помешало Роспечати в 2019 году выдать им субсидию в 684 миллиона рублей на национальный энциклопедический портал

А то что Минкультуры в 2016 году прекратило у них закупать бумажную большую российскую энциклопедию в массовых количествах - это ещё не повод не публиковать отчетность.

Я, кстати, писал об этом ещё в прошлом году. И всё большие сомнения возникают в том насколько качественно будет сделан этот национальный портал.

Ссылки:
[1] https://greatbook.ru/oao-info.html
[2] https://disclosure.1prime.ru/portal/default.aspx?emId=7709654510

#budgets
Огромная по масштабам утечка кодов Intel, более 20гб доступны уже сейчас [1] и это только начало, главные риски Intel в том что там могут найти специально зашитые бэкдоры, смешным образом, по слову "backdoor" в исходном коде и в том что поскольку Intel не так много исходного кода раскрывало и подвергало публичной проверке кода на безопасность, есть хороший шанс на большое число zero-day уязвимостей которые будут ещё долго всплывать.

В Arstechnica подробнее о том как такое стало возможно [2], если коротко то плохо настроенный сервер в Akami CDN и криво настроенное ПО, а также пароли в формате Intel123 и intel123.

Нет 100% защиты от таких утечек, но в в целом это плохая ситуация для Intel. Если в этой утечке найдут бэкдоры или какие либо подтверждения сокрытия проблем с их процессорами, то это неизбежно отразится и на стоимости их акций и в виде проблем на рынке.

Ссылки:
[1] https://t.me/exconfidential/590
[2] https://arstechnica.com/information-technology/2020/08/intel-is-investigating-the-leak-of-20gb-of-its-source-code-and-private-data/

#security #leaks
Кроме того что в России не работает защита персональных данных, есть не менее острая проблема в том что защиты от спама тоже нет. Деятельность ФАСа в части борьбы с рекламой (спамом) не то что хреновая, её просто нет.

Если Вы когда либо регистрировали юридическое лицо или заключали контракт по 44-ФЗ или 223-ФЗ, то Вы знаете что спамеры начинают звонить ещё до того как Вы сами узнаете об этом контракте или факте регистрации юр. лица. Не гнушаются рекламными звонками и письмами никто - банки, посредники организации, посредники физ. лица и так далее. Казалось бы проводи контрольную закупку и выноси административные штрафы потоком (можно до 100 штрафов в сутки так выписывать).

То что у нас нет службы/инструментов/сервиса/уполномоченного по защите прав потребителей в цифровой среде - это, конечно, маленькая катастрофа, которая однажды станет большой.

#digital
Government Digital Service в Великобритании опубликовали серию стандартов по работе с государственными данными и API [1] и отдельно открытые стандарты по описанию метаданных для наборов данных и табличных файлов и описания самих табличных файлов [2]. Большая часть рекомендаций касается использования стандарта Dublin Core для ведения метаданных, стандарта OpenAPI для проектирования и документирования API.

Все они связаны с появлением Open Standards Board [3] состоящем из знаковых лиц с большим опытом работы с данными,в том числе за пределами Великобритании [4], можно сказать что это реформа в области стандартизации работы с данными в госсекторе. Кроме того есть ряд рассматриваемых сейчас стандартов обмена информацией [5]. Можно обратить внимание что при написании стандартов прямо указывается что аудитория их использования - это data scientist'ы и те кто публикуют госданные [6]. А также много интересных идей и обсуждений непосредственно в Github репозитории открытых стандартов [7] включая стандартизацию печати документов, наличия у каждого госдокумента уникального идентификатора и так далее.

Лично я не могу не отметить лаконичность описания каждого стандарта, формата, рекомендации. Это совершенно несопоставимо с чтением всего что касается стандартизации на международном уровне или у нас в стране (да и ещё много где).

Ссылки:
[1] https://www.gov.uk/guidance/gds-api-technical-and-data-standards
[2] https://www.gov.uk/government/publications/recommended-open-standards-for-government
[3] https://www.gov.uk/guidance/choosing-open-standards-for-government
[4] https://www.gov.uk/government/groups/open-standards-board
[5] https://www.gov.uk/government/publications/open-standards-for-government
[6] https://www.gov.uk/government/publications/open-standards-for-government/country-codes
[7] https://github.com/alphagov/open-standards/issues

#data #standards
Читаю отчётность одного учрежденного государством некоммерческого фонда, сопоставляю параллельно, сведения из его годового отчёта, бухбаланса и аудиторского заключения за 1 год, который для этого фонда тоже был неполным (он в середине года появился).
А там расходы на ФОТ 84 миллиона рублей на 8 человек менее чем на 6 месяцев, скорее месяцев на 4-5.

Пока это рекорд по скорости освоения средств через фонд оплаты труда у учреждённых министерствами и другими органами власти НКО.

Другие примеры тоже есть, но не таких масштабов.

Всё это из общедоступных источников информации, главное лишь знать где искать.
Названия и имена приводить не буду, потому что источник хоть и открытый, но узнай о нём кто-то - сразу закроют/прикроют/ограничат.

#government #digital
В Великобритании, в принципе, много хороших примеров того что нужно и правильно делать в цифровизации госуправления. Они были и остаются одними из лидеров и являются частью Digital 5, наиболее цифровых стран мира.

Помимо открытости стандартов, приведу в пример несколько очень правильных практик:
- Каталог государственных API [1]. Всего около 20 API с описанием, ссылками на доступ и документацию.
- Реестр реестров [2] уже не каталог, а цельная платформа для публикации разного рода реестров создаваемых центральным правительством UK. В России, кстати, есть как минимум 2 хороших примеров аналогичных проектов. Система НСИ Минздрава России [3] и система классификаторов Санкт-Петербурга [4].
- GOV.UK Notify [5] система уведомлений граждан через электронную почту, SMS и обычную почту. Централизованный сервис G2G для всех органов власти. Достаточно лишь зарегистрироваться и пользоваться им через сайт или API. Используется 780 организациями для 3015 сервисов, значительно дешевле чем любые коммерческие сервисы.

Таких примеров ещё множество по разным странам.

Ссылки:
[1] https://alphagov.github.io/api-catalogue/
[2] https://www.registers.service.gov.uk/
[3] http://nsi.rosminzdrav.ru
[4] http://classif.gov.spb.ru/
[5] https://www.notifications.service.gov.uk/

#government #digital
Я ведь говорил что самое самый закрытый регион в части информатизации - это Москва?

Вот наглядный пример.

Есть такая информационная система города АИС "Депозитарий договоров и соглашений ПМ"
Казалось бы, должна быть очень публичной, а по ней вообще никакой публичной информации кроме упоминания в "реестре информационных систем" под номером 100215 и так по списку там ещё много чего.

Другой пример, АИС ЕГФДЭМ Автоматизированная информационная система "Единый городской фонд данных экологического мониторинга. Сбор, анализ и прогноз экологической обстановки в городе Москве и представление экологической информации органам государственной власти и населению. ГИС "Экология города" [1],

Автоматизированная информационная система Мэрии Москвы без публичного контура, всё закрыто авторизацией. Сведений о системе также минимум, в основном из презентаций её разработчика [2].

Откуда можно узнать как она выглядит и то что частично сгружает данные на портал открытых данных Москвы. Существенное отличие того что есть в системе и того что отдаётся на портал - это то что отгружаются ежемесячно среднемесячные показатели, иначе говоря, агрегированные угрублённые данные не позволяющие принимать решения. А в оригинальной системе хранится всё.

Аналогично ещё со множеством других информационно аналитических систем города данные из которых не раскрываются, не публикуются, а те что ранее публиковались на data.mos.ru не обновляются уже долгое время.

Ссылки:
[1] http://ecomonitor.mos.ru
[2] https://russiasmartcity.ru/uploads/attachments/4f3d2319a0033b1abed17dcc3e33f34e.pdf

#opendata #moscow
То во что выродилась контрактная система в России можно увидеть на основе материала в Коммерсанте по выбору единственного исполнителя на систему Безопасный город [1]. Фактическая конкуренция идёт не на рыночном, а на административном уровне, между государственными структурами разных форм собственности и существования.

Фактические тренды в расходах государства на ИТ на уровне федеральных органов власти и администраций субъектов уже много лет такие:
- если можно создать АНО и дать ему субсидию, то так и происходит (остальные работы не подпадают под закон о госслужбе, 44-ФЗ и 223-ФЗ)
- если можно создать ФГАУ/ГАУ (автономное учреждение), то дать ему госзадание и субсидию на его выполнение, а ГАУ далее контрактуется по 223-ФЗ, условия проще, поставщиков можно не раскрывать
- если есть возможность, выбрать подчинённое ГБУ и осуществлять in-sourcing (нанимать сотрудников команды разработчиков внутри органа власти)
- на самом высоком уровне заключать контракты с ед. исполнителем отбираемым постановлением Правительства или Указом Президента

Все причины проистекают из 44-ФЗ, закона о госслужбе и регулирования бюджетных учреждений и органов власти, в первую очередь в части оплаты труда и требований к режимам работы.

Ссылки:
[1] https://www.kommersant.ru/doc/4449344

#government #digital
В качестве напоминания, один из небольших проектов в Инфокультуре, как часть национального цифрового архива [1], я веду реестр всех доменов органов власти в репозитории на Github [2].

Сейчас в репозитории два больших обновления:
1. В папку refined [3] выложена рабочая версия обогащённых и очищенных данных по 7500 доменам в зоне .gov.ru и иным корневым доменам федеральных органов власти.
Это включает следующие сведения:
* feddomains.csv - домены в ведении федеральных органов власти
* organizations.csv - организации управляющие доменами федеральных органов власти
* govsystems.csv - государственные информационные системы к которым домены привязаны
* asn.csv - подсети (ASN) с привязкой к ним доменов
* regions.csv - регионы к которым привязаны домены федеральных органов власти

2. В папку "regional/77" выложен обновлённый список доменов связанных с Правительством Москвы (большая часть это поддомены домена mos.ru), всего 2265 доменов. Эти пока нерассортированная, неверифицированная куча доменов каждый из которых необходимо будет верифицировать в будущем. Большая часть систем города Москвы делается через "прокладку" в лице ДИТ Москвы и точки выхода API, контентных сайтов и т.д. не всегда локализованы в конкретных поддоменах. За полтора года поддоменов домена mos.ru стало значительно больше, весьма, весьма больше.

Я очень давно хотел эту работу проделать чтобы систематизировать стратегию архивацию сведений с официальных сайтов. В последнее время появилось слишком много сайтов внутри которых есть те или иные ограничения из-за которых веб-архивация не работает. Кстати, сам сайт Мэрии Москвы www.mos.ru устроен именно так, значительная часть сведений на страницах отдаются через API и JSON, в результате веб архивация не работает, поиск по документам внешний поиск тоже работает не очень.

Поэтому сейчас каждому веб-сайту в экспортированном списке feddomains.csv указывается стратегия архивации, факт архивации и, в будущем, факты наличия архивов. Следующим, непростым шагом, задача по сопоставлению огромной свалки архивов которая хранится на серверах национального цифрового архива со списком доменов чтобы понять по каким сайтам архивы есть, а по каким нужно срочно запускать процесс архивации.

Обратите внимание что все приведенные выше материалы являются рабочими. Далеко не по всем сайтам определена их региональная привязка, не все информационные системы привязаны и далеко не все метаданные заполнены. Более менее полными можно считать пока сам список доменов, типизацию сайтов, список организаций и ASN.

Если хотите помочь в этом, то пожелания и предложения доменов/сайтов для каталогизации направляйте в репозиторий через механизм issues [5].

P.S.
Вообще лично я надеялся много лет что Минцифра или Минэкономразвития сама рано или поздно сделают нормальный реестр госдоменов, вместо убогого Gosmonitor'а [6], но не дождался и уже много лет делаю сводный реестр самостоятельно в рамках Инфокультуры @infoculture.

Ссылки:
[1] https://ruarxive.org
[2] https://github.com/infoculture/govdomains
[3] https://github.com/infoculture/govdomains/tree/master/refined
[4] https://github.com/infoculture/govdomains/tree/master/regional/77
[5] https://github.com/infoculture/govdomains/issues
[6] https://gosmonitor.ru

#government #govdomains #infoculture
Я стараюсь находить на выходных по 1-2 часа времени для выкладки и актуализации старого кода и реестров.

Около 8 лет назад я занимался построением онтологии госуправления и экономической географии и в RDF/OWL моделировал и то и другое пытаясь сформировать эталонные справочники и правила их наполнения.

Далее эти справочники были нужны для незавершенного проекта по экономическим и социальным показателям/рейтингам по субъектам федерации.

Но других проектов идёт много, регулярно нужны эталонные справочники и такой справочник по субъектам федерации на выходных я раскопал, почистил и выложил сегодня в репозитории кода [1].

Многие из этих данных (не все) можно выковырять из Википедии и DBPedia, но в сведенном варианте их не было.

Справочник включает:
- наименованиях субъектов федерации
- коды субъектов (ОКАТО, КЛАДР, налоговые, автомобильные, коды по ISO 3166, коды по ГОСТ 67 и другие)
- сведения о макрорегионах в которые субъекты федерации входят
- сведения о пограничных регионах
- сведения о пограничных странах, если есть
- сведения о железных дорогах
- сведения о федеральных трассах
- сведения о морских побережьях (омывающих морях)
- сведения о наименованиях и ссылках органов власти субъектов федерации

Кому может пригодится такой справочник? Для каких задач?
1. Строите рейтинг по регионам и хотите сравнить позицию региона среди регионов входящих в тот же экономический район, федеральный округ, военный округ, с регионами с которыми у него общая граница и тд.
2. Ищите корреляции социально-экономического положения и других факторов, часть факторов есть в этих метаданных. Например есть ли у субъекта федерации выход к морю (is landlocked) или тип субъекта федерации (республика, область, город федерального значения) и так далее.
3. Нужно обогащение данных для организации навигации в своём проекте, расширение внутренних справочников и тд.

Наверняка есть другие области применения которые я не знаю.

Дальнейшие планы, в будущем:
1. Реестр должен быть актуализирован, поскольку многие ссылки не обновлялись с 2012 года.
2. Расширение реестра другими метаданными привязанными к субъектам федерации (площадь, численность населения и тд)
3. Постепенный охват крупнейших городов муниципальных образований и всех муниципальных образований в будущем

Если есть идеи и предложения какие ещё факторы/признаки/метаданные необходимы и полезны для работы, например, data scientist'ов, то обязательно напишите, реестр будет развиваться.

И, конечно, поскольку это открытый код/данные на Github то прямо в нем можно корректировать данные и вносить дополнения.

P.S. Я давно подумываю создать открытый репозиторий эталонных реестров и справочников, не только официальных государственных, а деятельностных, отсутствующих, но необходимых в работе.

Ссылки:
[1] https://github.com/infoculture/ruregions

#opendata #data #registries
О культуре работы с данными в госорганах можно поговорить на примере Росреестра. Официальная позиция Росреестра сейчас "пользуйтесь нашим API, всё остальное запрещено". Во вчерашнем их твите про сайты двойники и их опасность [1] недосказанность в том что не было бы этих посредников если бы сервисы Росреестра нормально работали, если бы служба занималась не борьбой с бизнесом, а его легализацией.

Я могу описать 5-6 сценариев того как это можно сделать соблюдая все требования законодательства и это, мягко говоря, не так уж сложно. Просто надо работать, а не писать в твиттере о том какие эти посредники плохие, а Росреестр хороший.

Росреестр - это пример плохих сервисов работы с данными. И, к сожалению, становится только хуже.

Ссылки:
[1] https://twitter.com/rosreestr_info/status/1293210158273835009

#rosreestr #data #business
Новость полезная для всех кто работает с международными данными и сравнением по странам. Всемирный банк изменил классификацию стран по доходам на душу населения, немного повысив критерии отнесения стран к группам.
Так ранее для стран с низким доходом населения (low income) сумма была в USD 1,026 в год, то теперь 1,036. Изменения небольшие, но они есть, полный список их есть в блоге Всемирного банка [1] и там же изменения в классификации стран по доходам в связи с этой корректировкой методологии и экономическим развитием.

Поднялись на категорию выше: Бенин, Индонезия, Маврикий, Науру, Непал, Румыния, Танзания.
Например, Румыния поднялась из upper-middle income до high income (то есть теперь выше России по классификации).

Опустились на одну категорию: Алжир, Шри Ланка, Судан.

В России сведения о ВРП за 2019 год до сих пор недоступны. Соответствующий показатель в системе ЕМИСС [1] охватывает только 1996-2018 годы, соответственно и измерить изменения в классификации регионов тоже затруднительно, хотя и было бы безусловно интересно

Ссылки:
[1] https://blogs.worldbank.org/opendata/new-world-bank-country-classifications-income-level-2020-2021
[2] https://fedstat.ru/indicator/42928

#opendata #data
В Algorithmwatch история о том как в Испании в 2016 году внедрили систему распознавания лиц на крупнейшем автобусном терминале [1].

Крупнейший в Испании автобусный терминал находится на юге Мадрида (Madrid South Station) и через него проходят около 20 миллионов человек, за 2019 год. В 2016 году на нём установили ПО по автоматическому распознаванию лиц, всего на 9 камерах из 100.

Всё это проходило в рамках частно-государственного партнерства и, в отличие от других проектов по распознаванию лиц в Испании, здесь всё работало и во время коронавируса и опасений правозащитников.

Ссылки:
[1] https://algorithmwatch.org/en/story/spain-mendez-alvaro-face-recognition/

#privacy #facerecognition
Не только в России данные и документы исчезают из госсайтов и информационных систем. Например, с сайта Департамента внутренних дел в США исчезли бюджетные корректировки (budget justifications) за 19 лет и остались только за последний год. Об этом пишут у себя в блоге [1] Environmental Data and Governance Initiative (EDGI), команда проекта по сохранению данных о изменении климата и мониторингу доступности государственных данных и проектов по измерению состояния окружающей среды.
Они же сделали об этом подробный доклад [2], разобрав ситуацию во всех подробностях.

Важная особенность общественного контроля именно в США в том что есть частные фонды финансирующую подобную деятельность. Так EDGI получили чуть менее 1 миллиона долларов грантами от Doris Duke Charitable Foundation и The David and Lucile Packard Foundation.

Кстати у команды проекта EDGI вышла весьма полезная научная статья Risk Assessment for Scientific Data [3], о том как прогнозировать риски исчезновения данных необходимых для академических исследований и о том как эти данные сохранять.

Ссылки:
[1] https://envirodatagov.org/financial-transparency-is-dwindling-at-doi/
[2] https://envirodatagov.org/wp-content/uploads/2020/07/AAR-13-DOI-Budgets-20200728.pdf
[3] https://datascience.codata.org/articles/10.5334/dsj-2020-010/

#data #opendata #datarisks
The Algorithmwatch статья [1] о польской системе STIR (System Teleinformatyczny Izby Rozliczeniowej) системе которая автоматически идентифицирует подозрительные транзакции и операции фирм однодневок.

Система работает на основе засекреченного алгоритма и отслеживает все операции с европейским аналогом НДС, VAT. Она идентифицирует случаи операций мошенничества и на основе её мониторинга глава налогового офиса и региональные представители налоговой службы в Польше принимают решения о заморозке счетов компаний от 72 часов до 3 месяцев и без уведомления самих компаний.

В 2018 году так заморозили 41 счет 23 организаций, в 2019 году 537 счет у 113 организаций. Польский Минфин оказался доволен внедренной системой [2], а Евросоюз предполагает внедрение аналогичной системы Central Electronic System of Payment information (CESOP) к 2024 году [3]

Ссылки:
[1] https://algorithmwatch.org/en/story/poland-stir-vat-fraud/
[2] https://podatki.gazetaprawna.pl/artykuly/1451268,stir-zablokowano-rachunek-bankowy.html
[3] https://ec.europa.eu/taxation_customs/taxation/central-electronic-system-payment-information-cesop_en

#data #taxes #eu #poland
Вышла новая версия Jupiter Notebook, под новым названием Jupiter Book [1]
Из новых возможностей:
- переход на язык разметки MyST Markdown [2]
- новая система сборки с поддержкой Jupiter Cache [3], запускающая исполнение notebook'а только при изменении кода
- больше интерактивности
- возможность сборки с командной строки

Jupiter Book - это стандарт де-факто для работы аналитиков и специалистов по data science и изменения в нём важны для всех кто работает с данными на регулярной основе.

UPD. Как меня поправляют читатели, это не новая версия версия Jupiter Notebook, но возможность преобразовывать .ipynb в книжке в виде новой версии инструмента. Что, впрочем, не отменяет его полезность.

Ссылки:
[1] https://blog.jupyter.org/announcing-the-new-jupyter-book-cbf7aa8bc72e
[2] https://myst-parser.readthedocs.io/en/latest/
[3] https://jupyter-cache.readthedocs.io/

#data #datascience #python
Те кто работал когда-либо с многочисленными библиотеками в языке Python знают про то как часто там одними и теми же словами называется разное или разными словами одинаковое и как оно часто несовместимо между собой.

Команда из Quansight Labs [1] сформировала консорциум по унификации API по работе с данными в языке Python [2], при поддержке таких компаний как Intel, Microsoft, Tensorflow, Google Research и других. О том почему это так важно и сколько накопилось отличий между библиотеками numpy, cupy, dask.array, jax, mxnet, pytorch и tensorflow они пишут в блоге этого консорциума [3]

Это хорошая инициатива, с открытым кодом [4] и полезными результатами для сообщества.

Ссылки:
[1] https://labs.quansight.org/
[2] https://data-apis.org
[3] https://data-apis.org/blog/announcing_the_consortium/
[4] https://github.com/data-apis

#python #data
В The Barrons статья Susan Ariel Aaronson о том почему личные данные американцев - это вопрос национальной безопасности [1] и о инициативе Clean Network по защите данных американцев от китайской коммунистической партии [2].

Автор в статье, при этом, как бы даже не намекает, а говорит прямо что указывать компаниям в других странах и юрисдикциях надо после того как навести порядок в самих США с нарушением приватности граждан.

А вот сама инициатива, Clean Network весьма примечательна. Она была анонсирована 5 августа и включает 5 направлений:
- Clean Carrier - не допускать китайские компании к подключению к телекому в США
- Clean Store - не допускать китайские приложения в магазины приложений в США
- Clean Apps - не допускать мобильным устройствам из Китая иметь предустановленные приложения и загружать из из магазинов приложений из других стран
- Clean Cloud - не допускать обработку персональных данных и иных чувствительных данных в китайских облачных сервисах
- Clean Cable - не допускать прослушку морских кабелей китайскими разведчиками.

И без меня достаточно желающих рассказать о том как, на самом деле, в США компании и разведывательные агентства следят за всем миром, так что я воздержусь от этого.

Но обращу внимание что что практика копирования зарубежного регулирования со своими модификациями распространена в России.

Ссылки:
[1] https://www.barrons.com/articles/why-personal-data-is-a-national-security-issue-51597244422
[2] https://www.state.gov/announcing-the-expansion-of-the-clean-network-to-safeguard-americas-assets/

#china #usa #personaldata #privacy
С января 2020 стартовал европейский проект TRUSTS [1] по созданию платформы торговли персональными и проприетарными данными с учётом всех правил и ограничений Евросоюза, включая GDPR. В проекте участвует консорциум из 17 организаций, академических, финансовых, стартапов в области данных, а Евросоюз выделил на него чуть менее 6 миллионов евро на 3 года [2].

Этот проект создан в рамках направления "Supporting the emergence of data markets and the data economy" [3] под которым в Евросоюзе создаются такие проекты как:
- Kraken Brokerage [4] платформа по защите персональных данных в облачных средах
- PIMCITY [5] повышение контроля пользователей за их данными собираемыми веб-сайтами
и многие другие проекты.

По моему опыту наблюдения за проектами в рамках Европейской исследовательской программы Horizon 2020 они редко превращаются в практические системы/стартапы/продукты, но очень часто прямо или косвенно влияют на выработку госполитики и регулирование в Евросоюзе.

Ссылки:
[1] https://www.trusts-data.eu/
[2] https://cordis.europa.eu/project/id/871481
[3] https://cordis.europa.eu/programme/id/H2020_ICT-13-2018-2019
[4] https://cordis.europa.eu/project/id/871473
[5] https://cordis.europa.eu/project/id/871370

#privacy #personaldata #eu