Ivan Begtin
8.07K subscribers
1.55K photos
3 videos
100 files
4.29K links
I write about Open Data, Data Engineering, Government, Privacy and Data Preservation and other gov and tech stuff
Telegram @ibegtin
Facebook - https://facebook.com/ibegtin
Secure contacts ivan@begtin.tech

Contact @NMBabina for ads proposals
Download Telegram
all_by_list_20220711_public.xlsx
217.3 KB
А раз Минцифры таки начнут чистить реестр аккредитованных компаний, то вот ещё один кусок из нашей аналитической базы. Это разного рода списки компаний, сортируются по первой колонке "category" включают такие категории как
- Разработка, производство, испытание и ремонт авиационной техники
- Финансовые организации
- Частные охранные организации
- Организации имеющие государственного или муниципального учредителя (РФ)
- Организации имеющие ПО зарегистрированное в реестре отечественного ПО
- Больничные организации
- Страховые организации
- Некоммерческие организации
- Радио и телекомпании
- Телекоммуникационные компании
- Высшие учебные заведения

Обратите внимание что почти все телеком компании в России были аккредитованы как ИТ.

Ну и остальных там хватает.

Это только те организации которых хотя бы 4 в одной категории набирается, а ещё куча разной экзотики вроде онлайн аптек, гостиниц, риэлторов и тд.

Но пусть с этим сами сотрудники Минцифры РФ уже разбираются.

#opendata #data #analytics #itmarket
Те кто когда-либо читали законы, постановления, указы и приказы на регулярной основе, наверняка, замечали что удивительно что все они написаны текстами, а не наборами инструкций.

В мире есть какое-то число инициатив по систематизации нормативных документов, таких как gitLaws или Akomo Ntoso, но в целом прогресс невелик. Отчасти от того, что есть значительное число юристов которые в результате потеряют работу, отчасти от объективной сложности применения чётких правил к нечёткой области деятельности, а отчасти поскольку законы создаются в рамках государственной модели, а многие конституции написаны так что парламенты имеют право принимать любые законы (!).

Иначе говоря есть две противоположные позиции. Одна в том что все НПА поддаются декомпозиции в чёткие правила, а другая в том что нельзя лезть с автоматизацией туда где нужно помнить о гибкости.

Лично я считаю что истина где-то посередине и истина в том что если делать платформу по разработке НПА, она должна более напоминать nocode/low-code платформы чем git или программный код в чистом виде.

Дело в том что явной автоматизации поддаются до 95-99% всех нормативных документов. Какие-нибудь распоряжения о назначении или увольнении и многие типовые указы, распоряжения и тд. Законы, также, вполне чётко могут быть разделены на новеллы и изменения накладываемые автоматически.

При этом, при подготовке любого НПА технологически должно быть возможно:
а) Иметь возможность готовить НПА в режиме конструктора норм.
б) Включить режим ручного написания текста, а не конструктор норм.
в) Иметь сервис способный автоматически проверять корректность/четкость/понятность норм и восстанавливать структурированные нормы из вручную написанного текста.

При это важно помнить что написание правил и законов - это основная функция госаппарата. Лично мне неизвестны чиновники ни в одной стране кто с энтузиазмом воспринимал бы идеи по контролю за их работой. Поэтому никто и не финансирует такие проекты по настоящему, не применяет языковые модели вроде GPT-3 к анализу новых НПА и корпусов законов.

Тем не менее я придерживаюсь мнения что рано или поздно автоматизация в этой области произойдёт. Эволюция правовых систем в новом поколении будет применять обратную реконструкцию норм из текстов в утилитарных целях - лоббирование, судебные разбирательства и тому подобное.

#legaltech #government #laws
Счетная палата США (GAO) опубликовала доклад Federal Spending Transparency: OIGs Identified a Variety of Issues with the Quality of Agencies' Data Submissions [1] посвящённый полноте и качеству раскрытия информации о федеральных государственных расходах. Для тех кто не следил за практиками раскрытия данных в США, эти данные раскрываются в рамках закона DATA Act в котором сформулированы требования и рекомендация к органам власти по публикации этих сведений. В отличие от России и многих стран с централизованными системами закупок, органы власти США гораздо свободнее в выборе процедур, отборке контрагентов и собственных правилах осуществления закупок. DATA Act не создавал новую систему, а требовал от упомянутых там органов власти передавать данные по определенным форматам Казначейству США.

А этот доклад - это результат анализа Счетной палаты США качества этих данных. В целом качество высокое, но, что неудивительно, далеко не у всех органов власти.

Важнее то что GAO выступает ещё и как аналитический центр осуществляющий технологическую оценку качества данных.

Они использовали следующие критерии для оценки
Quality of data: качество данных включая полноту, своевременность и аккуратность по статистической и нестатистической оценке
Completeness of agency submission: полнота данных передаваемых агентствами
Timeliness of agency submission: своевременность данных передаваемых агентствами
Completeness of data elements: полнота элементов данных
Timeliness of data elements: своевременность элементов данных
Accuracy of data elements: данные сопоставимы с данными из других информационных систем где они содержаться

Ссылки:
[1] https://www.gao.gov/products/gao-22-105427

#procurement #usa #usaspending #dataact #accountingchamber
В рубрике как это работает у них, государственные порталы открытых данных постсоветского пространства.
- data.gov.kg - Кыргызская республика. 644 набора данных. Большая часть данных в формате XLSX. Большая часть данных - статистика. Лицензия для данных не указана. Работает на CKAN
- data.egov.kz - Республика Казахстан. 3575 наборов данных Лицензия для данных не указана. Лицензия для данных не указана. Для выгрузки требуется авторизация через личный код ИИН в стране. По факту не открытые данные
- data.gov.ru - Российская Федерация. Более 26+ тысяч наборов данных. Большая часть данных административные файлы CSV минимального объема. Практически не развивается с 2016 г. Работает на DKAN.
- data.egov.uz - Республика Узбекистан. 4237 наборов данных, собственная разработка. Большая часть данных во внутреннем хранилище, не в виде файлов. Поддерживают экспорт в Excel, XML, CSV, RDF и JSON. Лицензия Creative Commons. Есть открытые наборы данных для обучения ИИ (!)
- opendata.az - Республика Азербайджан. Несколько сотен наборов данных, лицензии не указаны, данные предоставляются в виде веб сервисов, с нерегулярным обновлением. Большая часть данных справочники.
- data.gov.lt - Республика Литва. 1770 наборов данных. Данные под лицензией Creative Commons. Работает на собственном движке. Включает не только открытые, но и инвентаризированные данные допустимые к открытию по запросу. Больше половины наборов данных - геоданные.
- data.gov.lv - Республика Латвия. 622 наборов данных. Сайт на базе Drupal. Больше половины данных CSV и XLSX файлы. Все данные под лицензией Creative Commons
- avaandmed.eesti.ee - Эстонская республика. 1115 наборов данных, все под свободными лицензиями. Большая часть - ссылки на данные в других госсистемах. Много геоданных. Собственная разработка, даёт возможность поиск по географическому покрытию.

Государственные порталы открытых данных отсутствуют у Таджикистана, Туркменистана, Армении и Беларуси.

На что важно обратить внимание:
- лучший портал по смыслу и наполнению - Республика Узбекистан
- худший по доступу - Республика Казахстан (можно сказать вообще не портал открытых данных)
- наиболее замусоренный - Российская Федерация.

#opendata #postsoviet
Вах-вах, в Минцифре и другие чиновники читают мои тексты про то что надо делать компенсационный фонд [1] составленный из штрафов за утечки.

А где восторженные апплодисменты поощрение меня каким-нибудь благодарственным письмом лично из рук министра или ещё кого-нибудь из Правительства? ;)

Ну а если серьёзно, компенсационный фонд - это хорошо, а главное это понять что самые действенные меры в усилении граждан. Они в возможности получать значительно большие компенсации за понесенный ущерб.

Ссылки:
[1] https://t.me/begtin/4060

#dataleaks #digital #privacy
📑 Минцифры готовит новую версию законопроекта об оборотных штрафах за утечку персональных данных

По итогам обсуждений с отраслью Минцифры готовит изменения в законопроект об оборотных штрафах за утечки персональных данных. Министерство настаивает на усилении ответственности операторов персональных данных и при этом считает необходимым прояснить важные детали.

📌 Основные изменения

🔹 Будет определено, что именно является объектом утечки персональных данных, а также то, как будет устанавливаться вина конкретной компании. Например, оператор мобильной связи хранит данные, содержащие номер телефона и ФИО абонента, но «утечь» такие данные могут и из базы интернет-магазина. Кроме того, мошенники часто продают «склейки» из разных баз, выдавая их за утекшие из конкретных компаний данные.

🔹 Будет установлена соразмерность штрафов за утечки объемам и критичности персональных данных, появившихся в незаконном обороте.

🔹 Штрафы будут применяться в два этапа. За первую утечку штраф будет фиксированным. Его размер будет зависеть от объема данных, утечку которых допустила компания. В случае повторной утечки будет применяться оборотный штраф.

🔹 Для оборотных штрафов будут установлены границы («от» и «до» какого процента от выручки можно будет взыскать). Будут учитываться смягчающие и отягчающие обстоятельства. Например, если компания приложила максимум усилий к защите информации, это будет расцениваться как смягчающее обстоятельство при определении размера штрафа. Но если компания скрывала факт утечки, это может стать отягчающим обстоятельством, и тогда наказание будет максимальным.

🔹 Будет предусмотрена процедура добровольной аккредитации компаний по критериям информационной безопасности. Возможно, она будет связана с механизмом страхования профессиональной ответственности. Такая аккредитация может стать подтверждением мер, принятых для защиты от утечек. И это может рассматриваться как смягчающее обстоятельство. Аккредитация потребует проведения регулярных аудитов профессиональными компаниями, которые смогут подтвердить выполнение всех необходимых требований.

📌 Позиция Минцифры

🔹 Минцифры настаивает на усилении ответственности за утечки персональных данных. Это серьезная проблема, для решения которой не хватает существующей регуляторики. Попав в руки к злоумышленникам, данные могут стать инструментом для спам-звонков, нежелательных рассылок, шантажа, мошеннических схем. На основании утекших данных часто создают мошеннические онлайн-сервисы, которые привлекают пользователей своей простотой и удобством, и в итоге причиняют еще больший ущерб гражданам.

🔹 Дополнительная ответственность в виде оборотных штрафов побудит бизнес инвестировать в развитие инфраструктуры информационной безопасности и защиту персональных данных пользователей. Сейчас вопрос нарушений законодательства в области персональных данных регулируется статьей 13.11 Административного кодекса. Максимальное наказание, установленное в ней, предполагает штраф в 500 тыс. рублей для юридических лиц. Оборотные штрафы, на введении которых настаивает Минцифры, будут исчисляться в процентах от выручки компаний. Так, оборотный штраф в 1% для компании с выручкой в 100 млрд руб. составит 1 млрд руб.

🔹 Реальный уровень защиты, действующий в компаниях, сейчас определить сложно. Для этого Минцифры предлагает ввести механизм аккредитации и страхования, с помощью которого можно будет регулярно подтверждать соответствие компаний всем требованиям по уровню безопасности.

🔹 Важно определить, куда будут расходоваться собранные штрафы. Один из вариантов — выплаты компенсаций гражданам, пострадавшим от утечек. Может быть создан специальный фонд, который будет действовать по аналогии с «Агенством по страхованию вкладов», выплачивающим возмещения вкладчикам банков при наступлении страховых случаев.

@mintsifry
Не совсем про данные, а про полезные сервисы для инфраструктуры и работы которым нехватает альтернатив для работы в России.
- Tailscale [1] облачный VPN сервис который помещает все подключенные устройства в общую внутреннюю подсеть. Очень удобно когда у тебя несколько устройств. Не очень удобно при работе из России потому что идёт через инфраструктуру за пределами и потому что оплата в USD.
- Swarmia [2] сервис для разработчиков по отслеживанию метрик работы команд. Удобно для мониторинга команд, хотя и не во всех случаях может работать. По ощущением рынок в РФ под такое маловат, но кто знает.
- Work OS [3] сервис подключения корпоративной авторизации к сервисам стартапов. Позиционируют себя как сервис который делает твои приложения Entreprise ready. Не соглашусь что этого достаточно, но сама идея интересна
- Shortcut [4] интересный трекер задач с разными вариациями и форматами, позволяет многое, и даёт много интеграций с Github, Gitlab и ещё много чего, но как всегда требует оплаты в USD. Не знаю дозрел ли рынок в РФ до такого, по ощущением что не так много того с чем можно было бы интегрироваться. Или я ошибаюсь?

А каких сервисов Вам лично не хватает? У каких нет качественных российских альтернатив несмотря на востребованность и наличие рынка?

Ссылки:
[1] https://tailscale.com
[2] https://www.swarmia.com
[3] https://workos.com
[4] https://shortcut.com

#startups #onlineservices #itmarket
Команда Clickhouse выложила ClickBench [1] методологию, инструмент и результаты сравнения аналитических баз данных. Сравнивают много что: Aurora, Athena, Clickhouse, MySQL, Druid, Greenplum и тд. Около 30 разных продуктов в разных конфигурациях.

Что особенно хорошо - методология и реализация с открытым кодом [2] При этом по թ-м из 4-х метрик Clickhouse лидирует: Hot Run и Storage Size, по остальным находит в лидерах, уступая Snowflake по Cold Run и Athena по Load Time. Ценно также в отображении проблем которые возникают у многих движков в работе с большим объёмом данных.

Для тех кто выбирает инструмент для построения аналитического продукта это сравнение будет весьма полезным.

Но, всегда важно помнить ограничения, несмотря на хорошую проработку бенчмарка, странно не увидеть в нём прямых конкурентов Clickhouse вроде Starrocks, которые ещё недавно писали что превосходят Clickhouse по производительности [3].

Ссылки:
[1] https://benchmark.clickhouse.com/
[2] https://github.com/ClickHouse/ClickBench/
[3] https://starrocks.com/blog/benchmark-test

#datatools #dbms #data #benchmarks #clickhouse
В связи с тем что вышла куча новых законов и законопроектов по регулированию цифрового рынка, данных и тд. журналисты задают мне много вопросов, я где могу комментирую, но часто приходится говорить "вопрос точно не ко мне".

Так что я что могу и понимаю, прокомментирую, номера законов и проектов законов указывать не буду, они все и так на слуху:

1. Передача данных бизнеса государству для обезличивания

Очень плохая идея, похуже чем многие другие инициативы. Фактически даёт возможность государству потребовать у владельцев данных эти данные бесплатно и кому-то ещё их передать "обезличенными". Это рынок ломает и создает административный рынок. Причём это не подкреплено обоснованиями по работе с монопольными рынками или предварительной аналитической работой. Иначе говоря никакой доказательной политики тут нет. Поэтому это просто очень плохая инициатива с плохими последствиями.

2. Сбор биометрии без согласия граждан

Ничего хорошего не только с точки зрения того что государство [сверх]концентрирует [сверх]личные данные, но и в том что фактически это начинает происходить насильственным образом через коммерческих операторов услуг которым будут навязывать биометрию. Понятно что это навязывание не сейчас родилось и не в этом НПА, а именно это НПА просто делает ещё один шаг в сборе таких данных.

3. Наказание за утечки данных

Я уже об этом писал недавно. То что взяли мою идею с компенсационным фондом - хорошо. То что развивается модель штрафов, а не прокачка рынка инфобеза - плохо. Я считаю самую адекватную модель страховую и аудиторскую, а Минцифра могла бы ввести реестр аудиторов по инфобезу. Ну или ФСТЭК, ну или ещё кто. Но это понятная модель существования рынка в целом.

4. Блокировки за "порочащие сведения"

К ИТ рынку никакого отношения не имеет, имеет отношение к СМИ. По хорошему пусть это комментируют редактора СМИ и контентных проектов которые под это попадут. Хорошо это или плохо, опять же пусть оценивают участники "рынка компромата". Я лично считаю что "порочащие сведения" не являются синонимом "лжи", поэтому это тоже цензура.

#data #regulation #laws #privacy
Если бы я не знал Python, я бы выучил язык R. Для работы с данными - это, пожалуй, два наиболее актуальных и полезных языка для разработчиков и аналитиков. Но, если Python создавался изначально как язык общего назначения, то R именно как язык для изучения аналитиками. Ему, например, обучают сотрудников Счетной палаты Индии, во многом из-за простоты обучения

Я лично почти ничего не пишу об этом языке, но это не значит что у R нет большого сообщества и большой востребованности.

Среди авторов я лично могу порекомендовать Алексея Селезнева и его канал R4Marketing

Алексей пишет кратко и доходчиво, это как раз Телеграм формат.

P.S. А если Вы ещё не определились изучать Python или R, рекомендую посмотреть обзор Python vs R на DataCamp

#recommendations #telegram #rlang
Как реагировать на новость то что Пенсионный фонд объединили с Фондом социального страхования? [1]

В первую очередь, провести тотальную архивацию всех общедоступных ресурсов двух этих организаций. Это сайт ПФР pfr.gov.ru и сайт ФСС fss.ru, а также иных доступных сайтов, сообществ в социальных сетях и тд.

Аналогично и с другими случаями и слухами об отстранении отдельных руководителей органов власти. Потому что ни в одном законе не прописывают обязательную архивацию цифрового контента объединяемых или ликвидируемых органов власти.

В ближайшее время начнем архивацию контента этих органов власти в Национальный цифровой архив [2]

Ссылки:
[1] http://publication.pravo.gov.ru/Document/View/0001202207140012
[2] https://ruarxive.org

#digitalpreservation #webarchives
Про текущее состояние открытости данных на примере Фонда социального страхования (ФСС РФ).

ФСС РФ формально не является федеральным органом исполнительной власти, но, тем не менее выполняет многие его функции и с 2015 года фондом публиковались открытые данные.

У фонда было де-факто два способа раскрытия данных
- раздел на портале data.gov.ru [1] на который осталась ссылка на сайте фонда. Данные не обновлялись более 5 лет, ну и в целом это наименьшие по объёму стат показатели и административные справочники
- портал открытых данных data.fss.ru [2] на него уже нет ссылок с официального сайта ФСС РФ и сам портал всё ещё в статусе "тестового режима". На нем последние актуальные данные 4-х летней давности, опубликованы в 2018 году.

В результате актуальных ведомственных данных ФСС РФ нет уже более 4-х лет, а проекты по открытости заброшены.

Ссылки:
[1] https://data.gov.ru/organizations/7736056647
[2] https://data.fss.ru

#opendata #government #russia #fssrf
В рубрике как это работает у них, шотландский общественный портал открытых данных opendata.scot

• создан в 2021 г. на базе JKAN [1] статического генератора сайтов поверх известного инструмента с открытым кодом Jekyll․
• агрегирует данные из нескольких десятков порталов открытых данных Шотландии, в основном на базе ArcGIS и CKAN.
• автор Jack Gilmore [2] разработчик в одном из госорганов в Шотландии, делал его в свое свободное время
• весь открытый код доступен [3] и заодно и данные собираемые в Github.
• а также доступна аналитика в разных разрезах [4], автор собрал список госорганов в Шотландии, провязал его с данными из Wikidata и собрал список тех которые публикуют открытые данные и тех которые это не делают.
• автор активно использует Github для управления задачами сбора данных и мониторинга доступности сайтов [5]

В целом это очень простой проект, в котором можно обратить внимание на:
- его дешевизну, он почти ничего не стоит
- агрегацию имеющихся данных
- использование Github как хостинга

Главный недостаток в том что оригинальный автор JKAN забросил проект много лет назад [6], но учитываю простоту этого движка это не критично.

Ссылки:
[1] https://github.com/OpenDataScotland/jkan
[2] https://github.com/JackGilmore
[3] https://github.com/OpenDataScotland/the_od_bods
[4] https://opendata.scot/analytics/platform-health/
[5] https://github.com/OpenDataScotland/the_od_bods/actions
[6] https://github.com/timwis/jkan

#opendata #scotland #dataportals
С точки зрения цифровой архивации смена руководителя крупной госструктуры - это всегда сигнал к потере данных, контента и цифровых материалов. Не потому что предыдущий или новый руководитель плохой или хороший, а потому что в России нет обязательных требований по сохранению цифровых материалов и из публичного доступа они исчезают, часто очень быстро.

К примеру, к вопросу о Роскосмосе и смене его руководителя.
У Роскосмоса было и частично есть несколько сайтов, проектов
- www.roscosmos.ru - основной сайт, работает
- online.roscosmos.ru - сайт онлайн трансляций, минимальная информация
- ntk.roscosmos.ru - Орбита молодежи 2022, пока работает
- en.roscosmos.ru - англоязычная версия сайта
- gptl.ru - портал геоданных Роскосмоса
- pod.gptl.ru - портал открытых данных ДЗЗ
- tvroscosmos.ru - телестудия Роскосмоса
- licenses.roscosmos.ru - реестр лицензий
- vyzov.roscosmos.ru - программа полетов МКС-66
- keystart.roscosmos.ru - Ключ на старт, когда-то просветительский проект, сейчас недоступен

Плюс социальные сети и возможно есть и другие ресурсы, тут перечислены те что я знаю.

Что из этого может исчезнуть? Да практически все если, к примеру, новый руководитель захочет объединить всё в один ресурс. Или, если, например, решит что YouTube на котором лежат видеозаписи ТВ Роскосмоса недостаточно посконный и оттуда видео начнут удалять и переносить или ещё что-то.

Следующий вопрос, а каком приоритете и как всё это сохранять. Некоторые сайты архивируется классическими веб-краулерами, там где предусмотрен переход по ссылкам и их индексирование. А некоторые так не сохранятся, потому что не предполагают их индексирование и используют Ajax/API. К примеру licenses.roscosmos.ru, gptl.ru, pod.gptl.ru автоматически не заархивируются, нужно, или запускать краулер на базе браузера или писать парсеры. А tvroscosmos.ru можно заархивировать в части текста, но не в части видео, потому что всё видео на Youtube.

Всё это о том что любая внешняя архивация требует больших усилий, часто совершенно излишних. Проблемы возникают от того что нет чётких обязательств у госорганов, госкорпораций, госорганизаций сдавать в архив цифровой контент на регулярной основе.

P.S. А архив цифровых ресурсов Роскосмоса мы делаем

#digitalpreservation #webarchives
В рубрике как это работает у них, портал открытых данных Таиланда data.go.th

На портале размещено 6995 наборов данных от 1226 организаций.

Сам портал создан на базе CKAN, с небольшими доработками для поддержки тайского языка.

Основные форматы данных CSV и XLSX, но есть RDF файлы (Semantic Web) и много API.

Большой акцент сделан на статистику и экономику. А также актуальные данные такие как статистика по COVID-19 [1].

Эта же статистика входит в группу High Value Datasets (Данные высокой ценности) [2]. Создание таких групп данных - это один из трендов для порталов открытых данных по всему миру.

Кстати, наличие актуальной и ежедневно обновляемой статистики COVID-19 на портале открытых данных - это наиболее точный индикатор "живости" такого портала. Например, отсутствующий у российского государственного портала открытых данных data.gov.ru



Ссылки:
[1] https://www.data.go.th/dataset/covid-19-daily
[2] https://www.data.go.th/height_value

#opendata #thailand #dataportals
Полезное чтение про данные и не только:
- О том что SQL плохо справляется с воронками [1] и что с этим делать. По мне так очередная постановка вопроса о том что SQL надо менять или заменять. Очень много тех кто хочет заменить SQL своим продуктом, но альтернатив много.
- Надо ли публиковать репозитории dbt? [2] для тех кто не помнит, dbt - это такой инструмент в современном стеке данных позволяющий осуществлять трансформацию данных через SQL запросы, да так что всё это организовано в виде репозитория кода. Вопрос про раскрытие репозиториев непростой потому что часто код используется для обработки чувствительных данных.
- Обзор книги о диаграммах и графиках Learn to Draw Charts And Diagrams Step by Step из 80-х [3]. Когда мы все останемся без компьютеров можно будет взять оттуда на вооружение рекомендации.
- Обзор книги "Data Pipelines with Apache Airflow" [4] полезной для тех кто работает с трубами данных и с Airflow.
- сравнение Spark, Flink и ksqlDB для потоков данных [5] от команды RedPanda. Выбор, конечно, ими не ограничен и есть и другие конфигруации, но сравнение полезно.

Ссылки:
[1] https://motifanalytics.medium.com/everything-is-a-funnel-but-sql-doesnt-get-it-c35356424044
[2] https://davidsj.substack.com/p/public-transformation
[3] https://nightingaledvs.com/what-a-book-published-in-the-80s-taught-me-about-data-visualization/
[4] https://medium.com/plumbersofdatascience/book-review-data-pipelines-with-apache-airflow-by-rarelasnk-and-de-ruiter-654818e0b7b0
[5] https://redpanda.com/blog/data-stream-processing-spark-flink-ksqldb

#datatools #readings #data
В рубрике как это работает у них портал открытых данных Индонезии data.go.id

- работает с 2019 года с момента принятия президентского постановления
- имеет отдельный секретариат в подчинении Министерства национального планирования
- содержит более 90+ тысяч наборов данных, один из крупнейших порталов данных в мире
- большая часть данных в форматах XLSX и CSV, много геоданных в форматах WMS, WFS и API Esri REST
- на портале публикуют и обновляют данные все органы власти и все провинции Индонезии.
- портал создан на базе CKAN, поверх него разработчики создали веб-сайт использующий API CKAN и реализующий собственный поиск
- для тех провинций у которых есть свои порталы данных настроен агрегатор их сбора. Почти все региональные порталы также созданы на CKAN, например [2]
- портал постепенно развивается в сторону аналитики и дашбордов с разного рода визуализациями

В итоге портал очень велик по широте охвата и масштабу, пока не так хорошо проработан в части доступности данных в разных форматах. Ему не хватает доступных API и данных высокого качества, но у него всё хорошо с государственной поддержкой и раскрытием текущих данных как есть (open data by default).

Ссылки:
[1] https://data.go.id
[2] https://opendata.kukarkab.go.id/

#opendata #dataportals #indonesia
Для тех кто мог пропустить, с 20 июля, вот уже совсем скоро Google окончательно заменит раздел с разрешениями приложения в Google Apps на блок Data safety.

В Arstechnica статья о важных отличиях [1].

Раздел "разрешения приложению" был гарантированно актуальным поскольку разрешения описывались автоматически по итогам сканирования приложений, а Data safety - это декларация разработчика приложения по итогам заполнения одноименной формы. Это называется honor system (система на доверии).

Иначе говоря Google заменяют блок описания приложения от "мы проверили роботом, они следят вот так" на "разработчик мамой поклялся что будет вот так честно делать всё".

Впрочем в Google свои планы ещё не анонсировали, возможно раздел с разрешениями приложения всё же вернут под давлением общественности и регуляторов.

А я напомню что приложения для Android'а можно проверять независимыми инструментами такими как Exodus Privacy и др., я регулярно делал их обзоры [2].

Ссылки:
[1] https://arstechnica.com/gadgets/2022/07/google-plays-new-privacy-section-actually-hides-app-permissions/
[2] https://t.me/begtin/3106

#google #android #privacy
Написал большой текст в рассылку про наборы данных особой ценности (high-value datasets) [1].

Не забудьте подписаться [2] на рассылку. В отличие от телеграм канала я пишу туда не чаще чем раз в месяц в виде больших или очень больших текстов.

Ссылки:
[1] https://begtin.substack.com/p/27
[2] https://begtin.substack.com

#readings #opendata #datasets