Для тех кто, возможно, это упустил, Информационная культура @infoculture ведёт много проектов о НКО, для НКО. Среди них такие проекты как:
- Открытые НКО https://openngo.ru большая база сведений о некоммерческих организациях, их бюджетах, контрактах, грантах, субсидиях, бюджетах и так далее
- Данные НКО https://ngodata.ru - портал для публикации данных некоммерческими организациями
И вот открылся ещё один проект - Исследования НКО https://ngo-research.ru, как цикл мероприятий для некоммерческих организаций о том как и почему нужны исследования и как их проводить.
2 мероприятия уже прошло, ещё 2 запланированы на ближайшие дни. На них исследователи расскажут как выявлять и решать реальные проблемы, с чего начинать и так далее. На сайте есть ссылки и регистрация на мероприятия.
#opendata #openresearch #ngo
- Открытые НКО https://openngo.ru большая база сведений о некоммерческих организациях, их бюджетах, контрактах, грантах, субсидиях, бюджетах и так далее
- Данные НКО https://ngodata.ru - портал для публикации данных некоммерческими организациями
И вот открылся ещё один проект - Исследования НКО https://ngo-research.ru, как цикл мероприятий для некоммерческих организаций о том как и почему нужны исследования и как их проводить.
2 мероприятия уже прошло, ещё 2 запланированы на ближайшие дни. На них исследователи расскажут как выявлять и решать реальные проблемы, с чего начинать и так далее. На сайте есть ссылки и регистрация на мероприятия.
#opendata #openresearch #ngo
openngo.ru
Полная база данных о некоммерческих организациях | Открытые НКО
Найдите информацию о том, чем занимаются НКО, кем и как финансируются : финансы, источники доходов, арбитраж, общая информация о некоммерческой организации
Один из проектов которые я давно мониторю - это Archives Unleashed [1]. Проект по созданию инструментов с открытым кодом для обеспечения доступности веб-архивов для исследователей. Они сделали несколько инструментов таких как:
- Archives Unleashed Toolkit - удобное ПО для анализа WARC файлов
- Warclight - каталог для поиска и просмотра по WARC файлам
- Archives Unleashed Cloud - удобный поиск данных в веб архивах собранных сервисом Archive-It
и ещё много обучающих материалов в формате Jupyter Notebook.
У них на днях вышел Community Report за 2017-2020 годы [2]
И, в принципе, это очень хороший пример организации доступа исследователей к открытым данным.
Сам проект делается межуниверситетской командой, с основным грантополучателем University of Waterloo, финансируется Mellon Foundation, на $462,000 в 2017 году на 36 месяцев и сейчас в июне 2020 года ещё на $800,000 и 36 месяцев. Переводя в рубли - это 11 миллионов рублей в год по первому гранту и 20 миллионов рублей в год по второму гранту.
На команду из постоянно работающих 4 человек и 7 человек вовлеченных в проект в той или иной форме.
Но главное результат, это действительно очень полезный инструментарий.
Ссылки:
[1] https://archivesunleashed.org
[2] https://news.archivesunleashed.org/archives-unleashed-community-report-2017-2020-d997510e5b70
#opendata #openaccess #digitalpreservation
- Archives Unleashed Toolkit - удобное ПО для анализа WARC файлов
- Warclight - каталог для поиска и просмотра по WARC файлам
- Archives Unleashed Cloud - удобный поиск данных в веб архивах собранных сервисом Archive-It
и ещё много обучающих материалов в формате Jupyter Notebook.
У них на днях вышел Community Report за 2017-2020 годы [2]
И, в принципе, это очень хороший пример организации доступа исследователей к открытым данным.
Сам проект делается межуниверситетской командой, с основным грантополучателем University of Waterloo, финансируется Mellon Foundation, на $462,000 в 2017 году на 36 месяцев и сейчас в июне 2020 года ещё на $800,000 и 36 месяцев. Переводя в рубли - это 11 миллионов рублей в год по первому гранту и 20 миллионов рублей в год по второму гранту.
На команду из постоянно работающих 4 человек и 7 человек вовлеченных в проект в той или иной форме.
Но главное результат, это действительно очень полезный инструментарий.
Ссылки:
[1] https://archivesunleashed.org
[2] https://news.archivesunleashed.org/archives-unleashed-community-report-2017-2020-d997510e5b70
#opendata #openaccess #digitalpreservation
archivesunleashed.org
The Archives Unleashed Project
А почему ОАО "Большая российская энциклопедия" не публикует отченость с 2016 года?
Ни на официальном сайте [1] ни на официальной странице раскрытия информации [2]
Нет, как минимум за 4 года:
- список аффилированных лиц
- состава совета директоров
- годовых отчётов
- годовой бухгалтерской отчетности
Но это не помешало Роспечати в 2019 году выдать им субсидию в 684 миллиона рублей на национальный энциклопедический портал
А то что Минкультуры в 2016 году прекратило у них закупать бумажную большую российскую энциклопедию в массовых количествах - это ещё не повод не публиковать отчетность.
Я, кстати, писал об этом ещё в прошлом году. И всё большие сомнения возникают в том насколько качественно будет сделан этот национальный портал.
Ссылки:
[1] https://greatbook.ru/oao-info.html
[2] https://disclosure.1prime.ru/portal/default.aspx?emId=7709654510
#budgets
Ни на официальном сайте [1] ни на официальной странице раскрытия информации [2]
Нет, как минимум за 4 года:
- список аффилированных лиц
- состава совета директоров
- годовых отчётов
- годовой бухгалтерской отчетности
Но это не помешало Роспечати в 2019 году выдать им субсидию в 684 миллиона рублей на национальный энциклопедический портал
А то что Минкультуры в 2016 году прекратило у них закупать бумажную большую российскую энциклопедию в массовых количествах - это ещё не повод не публиковать отчетность.
Я, кстати, писал об этом ещё в прошлом году. И всё большие сомнения возникают в том насколько качественно будет сделан этот национальный портал.
Ссылки:
[1] https://greatbook.ru/oao-info.html
[2] https://disclosure.1prime.ru/portal/default.aspx?emId=7709654510
#budgets
Огромная по масштабам утечка кодов Intel, более 20гб доступны уже сейчас [1] и это только начало, главные риски Intel в том что там могут найти специально зашитые бэкдоры, смешным образом, по слову "backdoor" в исходном коде и в том что поскольку Intel не так много исходного кода раскрывало и подвергало публичной проверке кода на безопасность, есть хороший шанс на большое число zero-day уязвимостей которые будут ещё долго всплывать.
В Arstechnica подробнее о том как такое стало возможно [2], если коротко то плохо настроенный сервер в Akami CDN и криво настроенное ПО, а также пароли в формате Intel123 и intel123.
Нет 100% защиты от таких утечек, но в в целом это плохая ситуация для Intel. Если в этой утечке найдут бэкдоры или какие либо подтверждения сокрытия проблем с их процессорами, то это неизбежно отразится и на стоимости их акций и в виде проблем на рынке.
Ссылки:
[1] https://t.me/exconfidential/590
[2] https://arstechnica.com/information-technology/2020/08/intel-is-investigating-the-leak-of-20gb-of-its-source-code-and-private-data/
#security #leaks
В Arstechnica подробнее о том как такое стало возможно [2], если коротко то плохо настроенный сервер в Akami CDN и криво настроенное ПО, а также пароли в формате Intel123 и intel123.
Нет 100% защиты от таких утечек, но в в целом это плохая ситуация для Intel. Если в этой утечке найдут бэкдоры или какие либо подтверждения сокрытия проблем с их процессорами, то это неизбежно отразится и на стоимости их акций и в виде проблем на рынке.
Ссылки:
[1] https://t.me/exconfidential/590
[2] https://arstechnica.com/information-technology/2020/08/intel-is-investigating-the-leak-of-20gb-of-its-source-code-and-private-data/
#security #leaks
Кроме того что в России не работает защита персональных данных, есть не менее острая проблема в том что защиты от спама тоже нет. Деятельность ФАСа в части борьбы с рекламой (спамом) не то что хреновая, её просто нет.
Если Вы когда либо регистрировали юридическое лицо или заключали контракт по 44-ФЗ или 223-ФЗ, то Вы знаете что спамеры начинают звонить ещё до того как Вы сами узнаете об этом контракте или факте регистрации юр. лица. Не гнушаются рекламными звонками и письмами никто - банки, посредники организации, посредники физ. лица и так далее. Казалось бы проводи контрольную закупку и выноси административные штрафы потоком (можно до 100 штрафов в сутки так выписывать).
То что у нас нет службы/инструментов/сервиса/уполномоченного по защите прав потребителей в цифровой среде - это, конечно, маленькая катастрофа, которая однажды станет большой.
#digital
Если Вы когда либо регистрировали юридическое лицо или заключали контракт по 44-ФЗ или 223-ФЗ, то Вы знаете что спамеры начинают звонить ещё до того как Вы сами узнаете об этом контракте или факте регистрации юр. лица. Не гнушаются рекламными звонками и письмами никто - банки, посредники организации, посредники физ. лица и так далее. Казалось бы проводи контрольную закупку и выноси административные штрафы потоком (можно до 100 штрафов в сутки так выписывать).
То что у нас нет службы/инструментов/сервиса/уполномоченного по защите прав потребителей в цифровой среде - это, конечно, маленькая катастрофа, которая однажды станет большой.
#digital
Government Digital Service в Великобритании опубликовали серию стандартов по работе с государственными данными и API [1] и отдельно открытые стандарты по описанию метаданных для наборов данных и табличных файлов и описания самих табличных файлов [2]. Большая часть рекомендаций касается использования стандарта Dublin Core для ведения метаданных, стандарта OpenAPI для проектирования и документирования API.
Все они связаны с появлением Open Standards Board [3] состоящем из знаковых лиц с большим опытом работы с данными,в том числе за пределами Великобритании [4], можно сказать что это реформа в области стандартизации работы с данными в госсекторе. Кроме того есть ряд рассматриваемых сейчас стандартов обмена информацией [5]. Можно обратить внимание что при написании стандартов прямо указывается что аудитория их использования - это data scientist'ы и те кто публикуют госданные [6]. А также много интересных идей и обсуждений непосредственно в Github репозитории открытых стандартов [7] включая стандартизацию печати документов, наличия у каждого госдокумента уникального идентификатора и так далее.
Лично я не могу не отметить лаконичность описания каждого стандарта, формата, рекомендации. Это совершенно несопоставимо с чтением всего что касается стандартизации на международном уровне или у нас в стране (да и ещё много где).
Ссылки:
[1] https://www.gov.uk/guidance/gds-api-technical-and-data-standards
[2] https://www.gov.uk/government/publications/recommended-open-standards-for-government
[3] https://www.gov.uk/guidance/choosing-open-standards-for-government
[4] https://www.gov.uk/government/groups/open-standards-board
[5] https://www.gov.uk/government/publications/open-standards-for-government
[6] https://www.gov.uk/government/publications/open-standards-for-government/country-codes
[7] https://github.com/alphagov/open-standards/issues
#data #standards
Все они связаны с появлением Open Standards Board [3] состоящем из знаковых лиц с большим опытом работы с данными,в том числе за пределами Великобритании [4], можно сказать что это реформа в области стандартизации работы с данными в госсекторе. Кроме того есть ряд рассматриваемых сейчас стандартов обмена информацией [5]. Можно обратить внимание что при написании стандартов прямо указывается что аудитория их использования - это data scientist'ы и те кто публикуют госданные [6]. А также много интересных идей и обсуждений непосредственно в Github репозитории открытых стандартов [7] включая стандартизацию печати документов, наличия у каждого госдокумента уникального идентификатора и так далее.
Лично я не могу не отметить лаконичность описания каждого стандарта, формата, рекомендации. Это совершенно несопоставимо с чтением всего что касается стандартизации на международном уровне или у нас в стране (да и ещё много где).
Ссылки:
[1] https://www.gov.uk/guidance/gds-api-technical-and-data-standards
[2] https://www.gov.uk/government/publications/recommended-open-standards-for-government
[3] https://www.gov.uk/guidance/choosing-open-standards-for-government
[4] https://www.gov.uk/government/groups/open-standards-board
[5] https://www.gov.uk/government/publications/open-standards-for-government
[6] https://www.gov.uk/government/publications/open-standards-for-government/country-codes
[7] https://github.com/alphagov/open-standards/issues
#data #standards
GOV.UK
API technical and data standards
Design, build and operate APIs in a consistent way
Читаю отчётность одного учрежденного государством некоммерческого фонда, сопоставляю параллельно, сведения из его годового отчёта, бухбаланса и аудиторского заключения за 1 год, который для этого фонда тоже был неполным (он в середине года появился).
А там расходы на ФОТ 84 миллиона рублей на 8 человек менее чем на 6 месяцев, скорее месяцев на 4-5.
Пока это рекорд по скорости освоения средств через фонд оплаты труда у учреждённых министерствами и другими органами власти НКО.
Другие примеры тоже есть, но не таких масштабов.
Всё это из общедоступных источников информации, главное лишь знать где искать.
Названия и имена приводить не буду, потому что источник хоть и открытый, но узнай о нём кто-то - сразу закроют/прикроют/ограничат.
#government #digital
А там расходы на ФОТ 84 миллиона рублей на 8 человек менее чем на 6 месяцев, скорее месяцев на 4-5.
Пока это рекорд по скорости освоения средств через фонд оплаты труда у учреждённых министерствами и другими органами власти НКО.
Другие примеры тоже есть, но не таких масштабов.
Всё это из общедоступных источников информации, главное лишь знать где искать.
Названия и имена приводить не буду, потому что источник хоть и открытый, но узнай о нём кто-то - сразу закроют/прикроют/ограничат.
#government #digital
В Великобритании, в принципе, много хороших примеров того что нужно и правильно делать в цифровизации госуправления. Они были и остаются одними из лидеров и являются частью Digital 5, наиболее цифровых стран мира.
Помимо открытости стандартов, приведу в пример несколько очень правильных практик:
- Каталог государственных API [1]. Всего около 20 API с описанием, ссылками на доступ и документацию.
- Реестр реестров [2] уже не каталог, а цельная платформа для публикации разного рода реестров создаваемых центральным правительством UK. В России, кстати, есть как минимум 2 хороших примеров аналогичных проектов. Система НСИ Минздрава России [3] и система классификаторов Санкт-Петербурга [4].
- GOV.UK Notify [5] система уведомлений граждан через электронную почту, SMS и обычную почту. Централизованный сервис G2G для всех органов власти. Достаточно лишь зарегистрироваться и пользоваться им через сайт или API. Используется 780 организациями для 3015 сервисов, значительно дешевле чем любые коммерческие сервисы.
Таких примеров ещё множество по разным странам.
Ссылки:
[1] https://alphagov.github.io/api-catalogue/
[2] https://www.registers.service.gov.uk/
[3] http://nsi.rosminzdrav.ru
[4] http://classif.gov.spb.ru/
[5] https://www.notifications.service.gov.uk/
#government #digital
Помимо открытости стандартов, приведу в пример несколько очень правильных практик:
- Каталог государственных API [1]. Всего около 20 API с описанием, ссылками на доступ и документацию.
- Реестр реестров [2] уже не каталог, а цельная платформа для публикации разного рода реестров создаваемых центральным правительством UK. В России, кстати, есть как минимум 2 хороших примеров аналогичных проектов. Система НСИ Минздрава России [3] и система классификаторов Санкт-Петербурга [4].
- GOV.UK Notify [5] система уведомлений граждан через электронную почту, SMS и обычную почту. Централизованный сервис G2G для всех органов власти. Достаточно лишь зарегистрироваться и пользоваться им через сайт или API. Используется 780 организациями для 3015 сервисов, значительно дешевле чем любые коммерческие сервисы.
Таких примеров ещё множество по разным странам.
Ссылки:
[1] https://alphagov.github.io/api-catalogue/
[2] https://www.registers.service.gov.uk/
[3] http://nsi.rosminzdrav.ru
[4] http://classif.gov.spb.ru/
[5] https://www.notifications.service.gov.uk/
#government #digital
API Catalogue
UK Government APIs - API Catalogue
Я ведь говорил что самое самый закрытый регион в части информатизации - это Москва?
Вот наглядный пример.
Есть такая информационная система города АИС "Депозитарий договоров и соглашений ПМ"
Казалось бы, должна быть очень публичной, а по ней вообще никакой публичной информации кроме упоминания в "реестре информационных систем" под номером 100215 и так по списку там ещё много чего.
Другой пример, АИС ЕГФДЭМ Автоматизированная информационная система "Единый городской фонд данных экологического мониторинга. Сбор, анализ и прогноз экологической обстановки в городе Москве и представление экологической информации органам государственной власти и населению. ГИС "Экология города" [1],
Автоматизированная информационная система Мэрии Москвы без публичного контура, всё закрыто авторизацией. Сведений о системе также минимум, в основном из презентаций её разработчика [2].
Откуда можно узнать как она выглядит и то что частично сгружает данные на портал открытых данных Москвы. Существенное отличие того что есть в системе и того что отдаётся на портал - это то что отгружаются ежемесячно среднемесячные показатели, иначе говоря, агрегированные угрублённые данные не позволяющие принимать решения. А в оригинальной системе хранится всё.
Аналогично ещё со множеством других информационно аналитических систем города данные из которых не раскрываются, не публикуются, а те что ранее публиковались на data.mos.ru не обновляются уже долгое время.
Ссылки:
[1] http://ecomonitor.mos.ru
[2] https://russiasmartcity.ru/uploads/attachments/4f3d2319a0033b1abed17dcc3e33f34e.pdf
#opendata #moscow
Вот наглядный пример.
Есть такая информационная система города АИС "Депозитарий договоров и соглашений ПМ"
Казалось бы, должна быть очень публичной, а по ней вообще никакой публичной информации кроме упоминания в "реестре информационных систем" под номером 100215 и так по списку там ещё много чего.
Другой пример, АИС ЕГФДЭМ Автоматизированная информационная система "Единый городской фонд данных экологического мониторинга. Сбор, анализ и прогноз экологической обстановки в городе Москве и представление экологической информации органам государственной власти и населению. ГИС "Экология города" [1],
Автоматизированная информационная система Мэрии Москвы без публичного контура, всё закрыто авторизацией. Сведений о системе также минимум, в основном из презентаций её разработчика [2].
Откуда можно узнать как она выглядит и то что частично сгружает данные на портал открытых данных Москвы. Существенное отличие того что есть в системе и того что отдаётся на портал - это то что отгружаются ежемесячно среднемесячные показатели, иначе говоря, агрегированные угрублённые данные не позволяющие принимать решения. А в оригинальной системе хранится всё.
Аналогично ещё со множеством других информационно аналитических систем города данные из которых не раскрываются, не публикуются, а те что ранее публиковались на data.mos.ru не обновляются уже долгое время.
Ссылки:
[1] http://ecomonitor.mos.ru
[2] https://russiasmartcity.ru/uploads/attachments/4f3d2319a0033b1abed17dcc3e33f34e.pdf
#opendata #moscow
То во что выродилась контрактная система в России можно увидеть на основе материала в Коммерсанте по выбору единственного исполнителя на систему Безопасный город [1]. Фактическая конкуренция идёт не на рыночном, а на административном уровне, между государственными структурами разных форм собственности и существования.
Фактические тренды в расходах государства на ИТ на уровне федеральных органов власти и администраций субъектов уже много лет такие:
- если можно создать АНО и дать ему субсидию, то так и происходит (остальные работы не подпадают под закон о госслужбе, 44-ФЗ и 223-ФЗ)
- если можно создать ФГАУ/ГАУ (автономное учреждение), то дать ему госзадание и субсидию на его выполнение, а ГАУ далее контрактуется по 223-ФЗ, условия проще, поставщиков можно не раскрывать
- если есть возможность, выбрать подчинённое ГБУ и осуществлять in-sourcing (нанимать сотрудников команды разработчиков внутри органа власти)
- на самом высоком уровне заключать контракты с ед. исполнителем отбираемым постановлением Правительства или Указом Президента
Все причины проистекают из 44-ФЗ, закона о госслужбе и регулирования бюджетных учреждений и органов власти, в первую очередь в части оплаты труда и требований к режимам работы.
Ссылки:
[1] https://www.kommersant.ru/doc/4449344
#government #digital
Фактические тренды в расходах государства на ИТ на уровне федеральных органов власти и администраций субъектов уже много лет такие:
- если можно создать АНО и дать ему субсидию, то так и происходит (остальные работы не подпадают под закон о госслужбе, 44-ФЗ и 223-ФЗ)
- если можно создать ФГАУ/ГАУ (автономное учреждение), то дать ему госзадание и субсидию на его выполнение, а ГАУ далее контрактуется по 223-ФЗ, условия проще, поставщиков можно не раскрывать
- если есть возможность, выбрать подчинённое ГБУ и осуществлять in-sourcing (нанимать сотрудников команды разработчиков внутри органа власти)
- на самом высоком уровне заключать контракты с ед. исполнителем отбираемым постановлением Правительства или Указом Президента
Все причины проистекают из 44-ФЗ, закона о госслужбе и регулирования бюджетных учреждений и органов власти, в первую очередь в части оплаты труда и требований к режимам работы.
Ссылки:
[1] https://www.kommersant.ru/doc/4449344
#government #digital
Коммерсантъ
«Безопасный город» берут штурмом
На создание IT-системы для МЧС появилось несколько претендентов
В качестве напоминания, один из небольших проектов в Инфокультуре, как часть национального цифрового архива [1], я веду реестр всех доменов органов власти в репозитории на Github [2].
Сейчас в репозитории два больших обновления:
1. В папку refined [3] выложена рабочая версия обогащённых и очищенных данных по 7500 доменам в зоне .gov.ru и иным корневым доменам федеральных органов власти.
Это включает следующие сведения:
* feddomains.csv - домены в ведении федеральных органов власти
* organizations.csv - организации управляющие доменами федеральных органов власти
* govsystems.csv - государственные информационные системы к которым домены привязаны
* asn.csv - подсети (ASN) с привязкой к ним доменов
* regions.csv - регионы к которым привязаны домены федеральных органов власти
2. В папку "regional/77" выложен обновлённый список доменов связанных с Правительством Москвы (большая часть это поддомены домена mos.ru), всего 2265 доменов. Эти пока нерассортированная, неверифицированная куча доменов каждый из которых необходимо будет верифицировать в будущем. Большая часть систем города Москвы делается через "прокладку" в лице ДИТ Москвы и точки выхода API, контентных сайтов и т.д. не всегда локализованы в конкретных поддоменах. За полтора года поддоменов домена mos.ru стало значительно больше, весьма, весьма больше.
—
Я очень давно хотел эту работу проделать чтобы систематизировать стратегию архивацию сведений с официальных сайтов. В последнее время появилось слишком много сайтов внутри которых есть те или иные ограничения из-за которых веб-архивация не работает. Кстати, сам сайт Мэрии Москвы www.mos.ru устроен именно так, значительная часть сведений на страницах отдаются через API и JSON, в результате веб архивация не работает, поиск по документам внешний поиск тоже работает не очень.
Поэтому сейчас каждому веб-сайту в экспортированном списке feddomains.csv указывается стратегия архивации, факт архивации и, в будущем, факты наличия архивов. Следующим, непростым шагом, задача по сопоставлению огромной свалки архивов которая хранится на серверах национального цифрового архива со списком доменов чтобы понять по каким сайтам архивы есть, а по каким нужно срочно запускать процесс архивации.
Обратите внимание что все приведенные выше материалы являются рабочими. Далеко не по всем сайтам определена их региональная привязка, не все информационные системы привязаны и далеко не все метаданные заполнены. Более менее полными можно считать пока сам список доменов, типизацию сайтов, список организаций и ASN.
Если хотите помочь в этом, то пожелания и предложения доменов/сайтов для каталогизации направляйте в репозиторий через механизм issues [5].
P.S.
Вообще лично я надеялся много лет что Минцифра или Минэкономразвития сама рано или поздно сделают нормальный реестр госдоменов, вместо убогого Gosmonitor'а [6], но не дождался и уже много лет делаю сводный реестр самостоятельно в рамках Инфокультуры @infoculture.
Ссылки:
[1] https://ruarxive.org
[2] https://github.com/infoculture/govdomains
[3] https://github.com/infoculture/govdomains/tree/master/refined
[4] https://github.com/infoculture/govdomains/tree/master/regional/77
[5] https://github.com/infoculture/govdomains/issues
[6] https://gosmonitor.ru
#government #govdomains #infoculture
Сейчас в репозитории два больших обновления:
1. В папку refined [3] выложена рабочая версия обогащённых и очищенных данных по 7500 доменам в зоне .gov.ru и иным корневым доменам федеральных органов власти.
Это включает следующие сведения:
* feddomains.csv - домены в ведении федеральных органов власти
* organizations.csv - организации управляющие доменами федеральных органов власти
* govsystems.csv - государственные информационные системы к которым домены привязаны
* asn.csv - подсети (ASN) с привязкой к ним доменов
* regions.csv - регионы к которым привязаны домены федеральных органов власти
2. В папку "regional/77" выложен обновлённый список доменов связанных с Правительством Москвы (большая часть это поддомены домена mos.ru), всего 2265 доменов. Эти пока нерассортированная, неверифицированная куча доменов каждый из которых необходимо будет верифицировать в будущем. Большая часть систем города Москвы делается через "прокладку" в лице ДИТ Москвы и точки выхода API, контентных сайтов и т.д. не всегда локализованы в конкретных поддоменах. За полтора года поддоменов домена mos.ru стало значительно больше, весьма, весьма больше.
—
Я очень давно хотел эту работу проделать чтобы систематизировать стратегию архивацию сведений с официальных сайтов. В последнее время появилось слишком много сайтов внутри которых есть те или иные ограничения из-за которых веб-архивация не работает. Кстати, сам сайт Мэрии Москвы www.mos.ru устроен именно так, значительная часть сведений на страницах отдаются через API и JSON, в результате веб архивация не работает, поиск по документам внешний поиск тоже работает не очень.
Поэтому сейчас каждому веб-сайту в экспортированном списке feddomains.csv указывается стратегия архивации, факт архивации и, в будущем, факты наличия архивов. Следующим, непростым шагом, задача по сопоставлению огромной свалки архивов которая хранится на серверах национального цифрового архива со списком доменов чтобы понять по каким сайтам архивы есть, а по каким нужно срочно запускать процесс архивации.
Обратите внимание что все приведенные выше материалы являются рабочими. Далеко не по всем сайтам определена их региональная привязка, не все информационные системы привязаны и далеко не все метаданные заполнены. Более менее полными можно считать пока сам список доменов, типизацию сайтов, список организаций и ASN.
Если хотите помочь в этом, то пожелания и предложения доменов/сайтов для каталогизации направляйте в репозиторий через механизм issues [5].
P.S.
Вообще лично я надеялся много лет что Минцифра или Минэкономразвития сама рано или поздно сделают нормальный реестр госдоменов, вместо убогого Gosmonitor'а [6], но не дождался и уже много лет делаю сводный реестр самостоятельно в рамках Инфокультуры @infoculture.
Ссылки:
[1] https://ruarxive.org
[2] https://github.com/infoculture/govdomains
[3] https://github.com/infoculture/govdomains/tree/master/refined
[4] https://github.com/infoculture/govdomains/tree/master/regional/77
[5] https://github.com/infoculture/govdomains/issues
[6] https://gosmonitor.ru
#government #govdomains #infoculture
ruarxive.org
Russian national digital archive (ruarxive.org) | Russian national digital archive (ruarxive.org)
Archive of digital-born websites, data, images, video and other objects
Я стараюсь находить на выходных по 1-2 часа времени для выкладки и актуализации старого кода и реестров.
Около 8 лет назад я занимался построением онтологии госуправления и экономической географии и в RDF/OWL моделировал и то и другое пытаясь сформировать эталонные справочники и правила их наполнения.
Далее эти справочники были нужны для незавершенного проекта по экономическим и социальным показателям/рейтингам по субъектам федерации.
Но других проектов идёт много, регулярно нужны эталонные справочники и такой справочник по субъектам федерации на выходных я раскопал, почистил и выложил сегодня в репозитории кода [1].
Многие из этих данных (не все) можно выковырять из Википедии и DBPedia, но в сведенном варианте их не было.
Справочник включает:
- наименованиях субъектов федерации
- коды субъектов (ОКАТО, КЛАДР, налоговые, автомобильные, коды по ISO 3166, коды по ГОСТ 67 и другие)
- сведения о макрорегионах в которые субъекты федерации входят
- сведения о пограничных регионах
- сведения о пограничных странах, если есть
- сведения о железных дорогах
- сведения о федеральных трассах
- сведения о морских побережьях (омывающих морях)
- сведения о наименованиях и ссылках органов власти субъектов федерации
Кому может пригодится такой справочник? Для каких задач?
1. Строите рейтинг по регионам и хотите сравнить позицию региона среди регионов входящих в тот же экономический район, федеральный округ, военный округ, с регионами с которыми у него общая граница и тд.
2. Ищите корреляции социально-экономического положения и других факторов, часть факторов есть в этих метаданных. Например есть ли у субъекта федерации выход к морю (is landlocked) или тип субъекта федерации (республика, область, город федерального значения) и так далее.
3. Нужно обогащение данных для организации навигации в своём проекте, расширение внутренних справочников и тд.
Наверняка есть другие области применения которые я не знаю.
Дальнейшие планы, в будущем:
1. Реестр должен быть актуализирован, поскольку многие ссылки не обновлялись с 2012 года.
2. Расширение реестра другими метаданными привязанными к субъектам федерации (площадь, численность населения и тд)
3. Постепенный охват крупнейших городов муниципальных образований и всех муниципальных образований в будущем
Если есть идеи и предложения какие ещё факторы/признаки/метаданные необходимы и полезны для работы, например, data scientist'ов, то обязательно напишите, реестр будет развиваться.
И, конечно, поскольку это открытый код/данные на Github то прямо в нем можно корректировать данные и вносить дополнения.
P.S. Я давно подумываю создать открытый репозиторий эталонных реестров и справочников, не только официальных государственных, а деятельностных, отсутствующих, но необходимых в работе.
Ссылки:
[1] https://github.com/infoculture/ruregions
#opendata #data #registries
Около 8 лет назад я занимался построением онтологии госуправления и экономической географии и в RDF/OWL моделировал и то и другое пытаясь сформировать эталонные справочники и правила их наполнения.
Далее эти справочники были нужны для незавершенного проекта по экономическим и социальным показателям/рейтингам по субъектам федерации.
Но других проектов идёт много, регулярно нужны эталонные справочники и такой справочник по субъектам федерации на выходных я раскопал, почистил и выложил сегодня в репозитории кода [1].
Многие из этих данных (не все) можно выковырять из Википедии и DBPedia, но в сведенном варианте их не было.
Справочник включает:
- наименованиях субъектов федерации
- коды субъектов (ОКАТО, КЛАДР, налоговые, автомобильные, коды по ISO 3166, коды по ГОСТ 67 и другие)
- сведения о макрорегионах в которые субъекты федерации входят
- сведения о пограничных регионах
- сведения о пограничных странах, если есть
- сведения о железных дорогах
- сведения о федеральных трассах
- сведения о морских побережьях (омывающих морях)
- сведения о наименованиях и ссылках органов власти субъектов федерации
Кому может пригодится такой справочник? Для каких задач?
1. Строите рейтинг по регионам и хотите сравнить позицию региона среди регионов входящих в тот же экономический район, федеральный округ, военный округ, с регионами с которыми у него общая граница и тд.
2. Ищите корреляции социально-экономического положения и других факторов, часть факторов есть в этих метаданных. Например есть ли у субъекта федерации выход к морю (is landlocked) или тип субъекта федерации (республика, область, город федерального значения) и так далее.
3. Нужно обогащение данных для организации навигации в своём проекте, расширение внутренних справочников и тд.
Наверняка есть другие области применения которые я не знаю.
Дальнейшие планы, в будущем:
1. Реестр должен быть актуализирован, поскольку многие ссылки не обновлялись с 2012 года.
2. Расширение реестра другими метаданными привязанными к субъектам федерации (площадь, численность населения и тд)
3. Постепенный охват крупнейших городов муниципальных образований и всех муниципальных образований в будущем
Если есть идеи и предложения какие ещё факторы/признаки/метаданные необходимы и полезны для работы, например, data scientist'ов, то обязательно напишите, реестр будет развиваться.
И, конечно, поскольку это открытый код/данные на Github то прямо в нем можно корректировать данные и вносить дополнения.
P.S. Я давно подумываю создать открытый репозиторий эталонных реестров и справочников, не только официальных государственных, а деятельностных, отсутствующих, но необходимых в работе.
Ссылки:
[1] https://github.com/infoculture/ruregions
#opendata #data #registries
GitHub
GitHub - infoculture/ruregions: Registry of all Russian regions and regional metadata like codes, borders, macro and subregions…
Registry of all Russian regions and regional metadata like codes, borders, macro and subregions and e.t.c. - GitHub - infoculture/ruregions: Registry of all Russian regions and regional metadata li...
О культуре работы с данными в госорганах можно поговорить на примере Росреестра. Официальная позиция Росреестра сейчас "пользуйтесь нашим API, всё остальное запрещено". Во вчерашнем их твите про сайты двойники и их опасность [1] недосказанность в том что не было бы этих посредников если бы сервисы Росреестра нормально работали, если бы служба занималась не борьбой с бизнесом, а его легализацией.
Я могу описать 5-6 сценариев того как это можно сделать соблюдая все требования законодательства и это, мягко говоря, не так уж сложно. Просто надо работать, а не писать в твиттере о том какие эти посредники плохие, а Росреестр хороший.
Росреестр - это пример плохих сервисов работы с данными. И, к сожалению, становится только хуже.
Ссылки:
[1] https://twitter.com/rosreestr_info/status/1293210158273835009
#rosreestr #data #business
Я могу описать 5-6 сценариев того как это можно сделать соблюдая все требования законодательства и это, мягко говоря, не так уж сложно. Просто надо работать, а не писать в твиттере о том какие эти посредники плохие, а Росреестр хороший.
Росреестр - это пример плохих сервисов работы с данными. И, к сожалению, становится только хуже.
Ссылки:
[1] https://twitter.com/rosreestr_info/status/1293210158273835009
#rosreestr #data #business
Twitter
Росреестр
Чем опасны сайты-двойники Росреестра❓ Их деятельность противоречит целому ряду федеральных законодательных актов и направлена исключительно на извлечение прибыли. Официальные сайты: https://t.co/5vKySzGE13 и https://t.co/U6QRU5BKKH
Новость полезная для всех кто работает с международными данными и сравнением по странам. Всемирный банк изменил классификацию стран по доходам на душу населения, немного повысив критерии отнесения стран к группам.
Так ранее для стран с низким доходом населения (low income) сумма была в USD 1,026 в год, то теперь 1,036. Изменения небольшие, но они есть, полный список их есть в блоге Всемирного банка [1] и там же изменения в классификации стран по доходам в связи с этой корректировкой методологии и экономическим развитием.
Поднялись на категорию выше: Бенин, Индонезия, Маврикий, Науру, Непал, Румыния, Танзания.
Например, Румыния поднялась из upper-middle income до high income (то есть теперь выше России по классификации).
Опустились на одну категорию: Алжир, Шри Ланка, Судан.
В России сведения о ВРП за 2019 год до сих пор недоступны. Соответствующий показатель в системе ЕМИСС [1] охватывает только 1996-2018 годы, соответственно и измерить изменения в классификации регионов тоже затруднительно, хотя и было бы безусловно интересно
Ссылки:
[1] https://blogs.worldbank.org/opendata/new-world-bank-country-classifications-income-level-2020-2021
[2] https://fedstat.ru/indicator/42928
#opendata #data
Так ранее для стран с низким доходом населения (low income) сумма была в USD 1,026 в год, то теперь 1,036. Изменения небольшие, но они есть, полный список их есть в блоге Всемирного банка [1] и там же изменения в классификации стран по доходам в связи с этой корректировкой методологии и экономическим развитием.
Поднялись на категорию выше: Бенин, Индонезия, Маврикий, Науру, Непал, Румыния, Танзания.
Например, Румыния поднялась из upper-middle income до high income (то есть теперь выше России по классификации).
Опустились на одну категорию: Алжир, Шри Ланка, Судан.
В России сведения о ВРП за 2019 год до сих пор недоступны. Соответствующий показатель в системе ЕМИСС [1] охватывает только 1996-2018 годы, соответственно и измерить изменения в классификации регионов тоже затруднительно, хотя и было бы безусловно интересно
Ссылки:
[1] https://blogs.worldbank.org/opendata/new-world-bank-country-classifications-income-level-2020-2021
[2] https://fedstat.ru/indicator/42928
#opendata #data
World Bank Blogs
New World Bank country classifications by income level: 2020-2021
The World Bank assigns the world’s economies to four income groups — low, lower-middle, upper-middle, and high-income countries. The classifications are updated each year on July 1 and are based on GNI per capita in current USD...
В Algorithmwatch история о том как в Испании в 2016 году внедрили систему распознавания лиц на крупнейшем автобусном терминале [1].
Крупнейший в Испании автобусный терминал находится на юге Мадрида (Madrid South Station) и через него проходят около 20 миллионов человек, за 2019 год. В 2016 году на нём установили ПО по автоматическому распознаванию лиц, всего на 9 камерах из 100.
Всё это проходило в рамках частно-государственного партнерства и, в отличие от других проектов по распознаванию лиц в Испании, здесь всё работало и во время коронавируса и опасений правозащитников.
Ссылки:
[1] https://algorithmwatch.org/en/story/spain-mendez-alvaro-face-recognition/
#privacy #facerecognition
Крупнейший в Испании автобусный терминал находится на юге Мадрида (Madrid South Station) и через него проходят около 20 миллионов человек, за 2019 год. В 2016 году на нём установили ПО по автоматическому распознаванию лиц, всего на 9 камерах из 100.
Всё это проходило в рамках частно-государственного партнерства и, в отличие от других проектов по распознаванию лиц в Испании, здесь всё работало и во время коронавируса и опасений правозащитников.
Ссылки:
[1] https://algorithmwatch.org/en/story/spain-mendez-alvaro-face-recognition/
#privacy #facerecognition
AlgorithmWatch
Spain’s largest bus terminal deployed live face recognition four years ago, but few noticed - AlgorithmWatch
Madrid South Station’s face recognition system automatically matches every visitor’s face against a database of suspects, and shares information with the Spanish police.
Не только в России данные и документы исчезают из госсайтов и информационных систем. Например, с сайта Департамента внутренних дел в США исчезли бюджетные корректировки (budget justifications) за 19 лет и остались только за последний год. Об этом пишут у себя в блоге [1] Environmental Data and Governance Initiative (EDGI), команда проекта по сохранению данных о изменении климата и мониторингу доступности государственных данных и проектов по измерению состояния окружающей среды.
Они же сделали об этом подробный доклад [2], разобрав ситуацию во всех подробностях.
Важная особенность общественного контроля именно в США в том что есть частные фонды финансирующую подобную деятельность. Так EDGI получили чуть менее 1 миллиона долларов грантами от Doris Duke Charitable Foundation и The David and Lucile Packard Foundation.
Кстати у команды проекта EDGI вышла весьма полезная научная статья Risk Assessment for Scientific Data [3], о том как прогнозировать риски исчезновения данных необходимых для академических исследований и о том как эти данные сохранять.
Ссылки:
[1] https://envirodatagov.org/financial-transparency-is-dwindling-at-doi/
[2] https://envirodatagov.org/wp-content/uploads/2020/07/AAR-13-DOI-Budgets-20200728.pdf
[3] https://datascience.codata.org/articles/10.5334/dsj-2020-010/
#data #opendata #datarisks
Они же сделали об этом подробный доклад [2], разобрав ситуацию во всех подробностях.
Важная особенность общественного контроля именно в США в том что есть частные фонды финансирующую подобную деятельность. Так EDGI получили чуть менее 1 миллиона долларов грантами от Doris Duke Charitable Foundation и The David and Lucile Packard Foundation.
Кстати у команды проекта EDGI вышла весьма полезная научная статья Risk Assessment for Scientific Data [3], о том как прогнозировать риски исчезновения данных необходимых для академических исследований и о том как эти данные сохранять.
Ссылки:
[1] https://envirodatagov.org/financial-transparency-is-dwindling-at-doi/
[2] https://envirodatagov.org/wp-content/uploads/2020/07/AAR-13-DOI-Budgets-20200728.pdf
[3] https://datascience.codata.org/articles/10.5334/dsj-2020-010/
#data #opendata #datarisks
Environmental Data and Governance Initiative
Financial Transparency is Dwindling at DOI – Environmental Data and Governance Initiative
There has been a significant reduction in the financial transparency of the Department of the Interior (DOI). Between April and May 2020, DOI removed the budget justifications for all years prior to FY2020 that had been hosted on its DOI.gov website. The…
The Algorithmwatch статья [1] о польской системе STIR (System Teleinformatyczny Izby Rozliczeniowej) системе которая автоматически идентифицирует подозрительные транзакции и операции фирм однодневок.
Система работает на основе засекреченного алгоритма и отслеживает все операции с европейским аналогом НДС, VAT. Она идентифицирует случаи операций мошенничества и на основе её мониторинга глава налогового офиса и региональные представители налоговой службы в Польше принимают решения о заморозке счетов компаний от 72 часов до 3 месяцев и без уведомления самих компаний.
В 2018 году так заморозили 41 счет 23 организаций, в 2019 году 537 счет у 113 организаций. Польский Минфин оказался доволен внедренной системой [2], а Евросоюз предполагает внедрение аналогичной системы Central Electronic System of Payment information (CESOP) к 2024 году [3]
Ссылки:
[1] https://algorithmwatch.org/en/story/poland-stir-vat-fraud/
[2] https://podatki.gazetaprawna.pl/artykuly/1451268,stir-zablokowano-rachunek-bankowy.html
[3] https://ec.europa.eu/taxation_customs/taxation/central-electronic-system-payment-information-cesop_en
#data #taxes #eu #poland
Система работает на основе засекреченного алгоритма и отслеживает все операции с европейским аналогом НДС, VAT. Она идентифицирует случаи операций мошенничества и на основе её мониторинга глава налогового офиса и региональные представители налоговой службы в Польше принимают решения о заморозке счетов компаний от 72 часов до 3 месяцев и без уведомления самих компаний.
В 2018 году так заморозили 41 счет 23 организаций, в 2019 году 537 счет у 113 организаций. Польский Минфин оказался доволен внедренной системой [2], а Евросоюз предполагает внедрение аналогичной системы Central Electronic System of Payment information (CESOP) к 2024 году [3]
Ссылки:
[1] https://algorithmwatch.org/en/story/poland-stir-vat-fraud/
[2] https://podatki.gazetaprawna.pl/artykuly/1451268,stir-zablokowano-rachunek-bankowy.html
[3] https://ec.europa.eu/taxation_customs/taxation/central-electronic-system-payment-information-cesop_en
#data #taxes #eu #poland
AlgorithmWatch
Pre-crime at the tax office: How Poland automated the fight against VAT fraud. - AlgorithmWatch
In their fight against fraud, Polish tax authorities use STIR, an algorithm sifting through the data of millions of entrepreneurs. The government claims success, but dozens of companies have been hit, some say wrongly.
Вышла новая версия Jupiter Notebook, под новым названием Jupiter Book [1]
Из новых возможностей:
- переход на язык разметки MyST Markdown [2]
- новая система сборки с поддержкой Jupiter Cache [3], запускающая исполнение notebook'а только при изменении кода
- больше интерактивности
- возможность сборки с командной строки
Jupiter Book - это стандарт де-факто для работы аналитиков и специалистов по data science и изменения в нём важны для всех кто работает с данными на регулярной основе.
UPD. Как меня поправляют читатели, это не новая версия версия Jupiter Notebook, но возможность преобразовывать .ipynb в книжке в виде новой версии инструмента. Что, впрочем, не отменяет его полезность.
Ссылки:
[1] https://blog.jupyter.org/announcing-the-new-jupyter-book-cbf7aa8bc72e
[2] https://myst-parser.readthedocs.io/en/latest/
[3] https://jupyter-cache.readthedocs.io/
#data #datascience #python
Из новых возможностей:
- переход на язык разметки MyST Markdown [2]
- новая система сборки с поддержкой Jupiter Cache [3], запускающая исполнение notebook'а только при изменении кода
- больше интерактивности
- возможность сборки с командной строки
Jupiter Book - это стандарт де-факто для работы аналитиков и специалистов по data science и изменения в нём важны для всех кто работает с данными на регулярной основе.
UPD. Как меня поправляют читатели, это не новая версия версия Jupiter Notebook, но возможность преобразовывать .ipynb в книжке в виде новой версии инструмента. Что, впрочем, не отменяет его полезность.
Ссылки:
[1] https://blog.jupyter.org/announcing-the-new-jupyter-book-cbf7aa8bc72e
[2] https://myst-parser.readthedocs.io/en/latest/
[3] https://jupyter-cache.readthedocs.io/
#data #datascience #python
Medium
Announcing the new Jupyter Book
Note: this announcement is cross-posted between the Jupyter Blog and the Executable Book Project updates blog
Те кто работал когда-либо с многочисленными библиотеками в языке Python знают про то как часто там одними и теми же словами называется разное или разными словами одинаковое и как оно часто несовместимо между собой.
Команда из Quansight Labs [1] сформировала консорциум по унификации API по работе с данными в языке Python [2], при поддержке таких компаний как Intel, Microsoft, Tensorflow, Google Research и других. О том почему это так важно и сколько накопилось отличий между библиотеками numpy, cupy, dask.array, jax, mxnet, pytorch и tensorflow они пишут в блоге этого консорциума [3]
Это хорошая инициатива, с открытым кодом [4] и полезными результатами для сообщества.
Ссылки:
[1] https://labs.quansight.org/
[2] https://data-apis.org
[3] https://data-apis.org/blog/announcing_the_consortium/
[4] https://github.com/data-apis
#python #data
Команда из Quansight Labs [1] сформировала консорциум по унификации API по работе с данными в языке Python [2], при поддержке таких компаний как Intel, Microsoft, Tensorflow, Google Research и других. О том почему это так важно и сколько накопилось отличий между библиотеками numpy, cupy, dask.array, jax, mxnet, pytorch и tensorflow они пишут в блоге этого консорциума [3]
Это хорошая инициатива, с открытым кодом [4] и полезными результатами для сообщества.
Ссылки:
[1] https://labs.quansight.org/
[2] https://data-apis.org
[3] https://data-apis.org/blog/announcing_the_consortium/
[4] https://github.com/data-apis
#python #data
data-apis.org
Consortium for Python Data API Standards
В The Barrons статья Susan Ariel Aaronson о том почему личные данные американцев - это вопрос национальной безопасности [1] и о инициативе Clean Network по защите данных американцев от китайской коммунистической партии [2].
Автор в статье, при этом, как бы даже не намекает, а говорит прямо что указывать компаниям в других странах и юрисдикциях надо после того как навести порядок в самих США с нарушением приватности граждан.
А вот сама инициатива, Clean Network весьма примечательна. Она была анонсирована 5 августа и включает 5 направлений:
- Clean Carrier - не допускать китайские компании к подключению к телекому в США
- Clean Store - не допускать китайские приложения в магазины приложений в США
- Clean Apps - не допускать мобильным устройствам из Китая иметь предустановленные приложения и загружать из из магазинов приложений из других стран
- Clean Cloud - не допускать обработку персональных данных и иных чувствительных данных в китайских облачных сервисах
- Clean Cable - не допускать прослушку морских кабелей китайскими разведчиками.
И без меня достаточно желающих рассказать о том как, на самом деле, в США компании и разведывательные агентства следят за всем миром, так что я воздержусь от этого.
Но обращу внимание что что практика копирования зарубежного регулирования со своими модификациями распространена в России.
Ссылки:
[1] https://www.barrons.com/articles/why-personal-data-is-a-national-security-issue-51597244422
[2] https://www.state.gov/announcing-the-expansion-of-the-clean-network-to-safeguard-americas-assets/
#china #usa #personaldata #privacy
Автор в статье, при этом, как бы даже не намекает, а говорит прямо что указывать компаниям в других странах и юрисдикциях надо после того как навести порядок в самих США с нарушением приватности граждан.
А вот сама инициатива, Clean Network весьма примечательна. Она была анонсирована 5 августа и включает 5 направлений:
- Clean Carrier - не допускать китайские компании к подключению к телекому в США
- Clean Store - не допускать китайские приложения в магазины приложений в США
- Clean Apps - не допускать мобильным устройствам из Китая иметь предустановленные приложения и загружать из из магазинов приложений из других стран
- Clean Cloud - не допускать обработку персональных данных и иных чувствительных данных в китайских облачных сервисах
- Clean Cable - не допускать прослушку морских кабелей китайскими разведчиками.
И без меня достаточно желающих рассказать о том как, на самом деле, в США компании и разведывательные агентства следят за всем миром, так что я воздержусь от этого.
Но обращу внимание что что практика копирования зарубежного регулирования со своими модификациями распространена в России.
Ссылки:
[1] https://www.barrons.com/articles/why-personal-data-is-a-national-security-issue-51597244422
[2] https://www.state.gov/announcing-the-expansion-of-the-clean-network-to-safeguard-americas-assets/
#china #usa #personaldata #privacy
Barron's
Why Personal Data Is a National Security Issue
Targeting TikTok, WeChat, and other Chinese apps won't solve America's fundamental data problems.
С января 2020 стартовал европейский проект TRUSTS [1] по созданию платформы торговли персональными и проприетарными данными с учётом всех правил и ограничений Евросоюза, включая GDPR. В проекте участвует консорциум из 17 организаций, академических, финансовых, стартапов в области данных, а Евросоюз выделил на него чуть менее 6 миллионов евро на 3 года [2].
Этот проект создан в рамках направления "Supporting the emergence of data markets and the data economy" [3] под которым в Евросоюзе создаются такие проекты как:
- Kraken Brokerage [4] платформа по защите персональных данных в облачных средах
- PIMCITY [5] повышение контроля пользователей за их данными собираемыми веб-сайтами
и многие другие проекты.
По моему опыту наблюдения за проектами в рамках Европейской исследовательской программы Horizon 2020 они редко превращаются в практические системы/стартапы/продукты, но очень часто прямо или косвенно влияют на выработку госполитики и регулирование в Евросоюзе.
Ссылки:
[1] https://www.trusts-data.eu/
[2] https://cordis.europa.eu/project/id/871481
[3] https://cordis.europa.eu/programme/id/H2020_ICT-13-2018-2019
[4] https://cordis.europa.eu/project/id/871473
[5] https://cordis.europa.eu/project/id/871370
#privacy #personaldata #eu
Этот проект создан в рамках направления "Supporting the emergence of data markets and the data economy" [3] под которым в Евросоюзе создаются такие проекты как:
- Kraken Brokerage [4] платформа по защите персональных данных в облачных средах
- PIMCITY [5] повышение контроля пользователей за их данными собираемыми веб-сайтами
и многие другие проекты.
По моему опыту наблюдения за проектами в рамках Европейской исследовательской программы Horizon 2020 они редко превращаются в практические системы/стартапы/продукты, но очень часто прямо или косвенно влияют на выработку госполитики и регулирование в Евросоюзе.
Ссылки:
[1] https://www.trusts-data.eu/
[2] https://cordis.europa.eu/project/id/871481
[3] https://cordis.europa.eu/programme/id/H2020_ICT-13-2018-2019
[4] https://cordis.europa.eu/project/id/871473
[5] https://cordis.europa.eu/project/id/871370
#privacy #personaldata #eu
TRUSTS
Home
Project Partners
https://youtu.be/eitIXdxLUno
TRUSTS explained
Watch the video and get an insight into one of Europe's innovations!
https://youtu.be/eitIXdxLUno
TRUSTS explained
Watch the video and get an insight into one of Europe's innovations!