Ivan Begtin
8.07K subscribers
1.69K photos
3 videos
100 files
4.38K links
I write about Open Data, Data Engineering, Government, Privacy, Digital Preservation and other gov related and tech stuff.

Founder of Dateno https://dateno.io

Telegram @ibegtin
Facebook - https://facebook.com/ibegtin
Secure contacts ivan@begtin.tech
Download Telegram
Media is too big
VIEW IN TELEGRAM
Председатель Ассоциации участников рынка данных Иван Бегтин о доступности транспортных данных, собираемых госсистемами, для использования бизнесом.

Выступление на круглом столе «Большие данные в транспортной отрасли на примере работы ГИС «Электронные перевозочные документы»”, KAZAN DIGITAL WEEK
В рубрике интересных стартапов на данных Whaly [1] французский стартап в области автоматизации BI и аналитики, привлекший $1.9M венчурных инвестиций в июле 2022 г. [2]. Стартап любопытный в том что конкурирует с Looker, но своим рыночным преимуществом указывает что умеет интегрироваться с десятками онлайн сервисов и эта интеграция не требует внешнего ETԼ сервиса. Что, в целом, соответствует тому о чём писал Benn Stancil [3] о том что ETL бизнесу вроде Fivetran недолго осталось царствовать. Whaly продукт весьма любопытный, но бесплатно его не попробовать и ценообразование там какое-то непонятное, всё через созвон с сейлами и в прайс листе указано что
планы начинаются с $460 в месяц. Наверное сервис хороший, но вот этот вот подход с невозможностью бесплатного тестирования мне лично категорически не нравится.

И, признаюсь, я лично, обжёгшись на Gitbook'е и Scaleway очень настороженно отношусь к французским стартапам. Даже когда продукт выглядит интересно, customer service оказывается ужасающим.

Ссылки:
[1] https://whaly.io/
[2] https://www.crunchbase.com/organization/whaly
[3] https://benn.substack.com/p/how-fivetran-fails

#data #datatools #startups #analytics #BI
Всемирная организация здравоохранения приняла новую политику с требованием по обязательному раскрытию данных всех финансируемых ими научных исследований [1] в их анонсе ссылка на документ руководства опубликованного в апреле 2022 г.
Распространение и повторное использование медико-санитарных данных в исследовательских целях: руководство ВОЗ по политике и осуществлению [2]

Если изложить кратко тезисами, то примерно так:
1. Все данные исследований должны раскрываться
2. Данные должны публиковаться в одном из открытых репозиториев соответствующих ряду критериев. Примеры приведены
3. Исследования должны быть основаны на принципах FAIR [3]
4. Данные должны проходить деперсонализацию.

Как я уже много раз писал, структуры ООН сейчас одни из лидирующих в мире по масштабам раскрытия данных.

Ссылки:
[1] https://www.who.int/news/item/16-09-2022-new-who-policy-requires-sharing-of-all-research-data
[2] https://www.who.int/ru/publications/i/item/9789240044968
[3] https://www.go-fair.org/fair-principles/

#opendata #un #who #openaccess
Полезное чтение про данные, технологии, программирование и не только в виде дайджеста:
- The impossible case of pitching rust in a web dev shop [1] полезный образный кейс и подборка примеров того почему крупнейшие компании переходят на Rust и очень конкретные примеры того к какой эффективности это приводит. В основном речь о сокращении энергопотребления, меньшем объёме потребления памяти, значительно лучшей производительности.
- Hurl [2] инструмент тестирования запросов к веб-сайтам через скриптовое описание текста в простом тексте. Умеет то же что и Curl, но через скрипты и включает удобную проверку результатов. Несомненно полезно и необходимо для автоматизации тестирования API.
- MFA Fatigue: Hackers’ new favorite tactic in high-profile breaches [3] новая тактика хакеров по взлому аккаунтов через "задалбывание пользователей" запросами через многофакторную аутентификацию. Так чтобы пользователь, или случайно, или от усталости подтвердил вход. Уже несколько компаний были успешно взломаны через такую социальную инженерию. В частности это был Uber.
- Rocketry [4] система планирования задач написанная на Python и позволяющая регулярно выполнять определенные задачи в отдельной нити или в отдельном процессе. Казалось бы зачем это нужно если есть Crontab для локального или Airflow для глобального? Потому что позволяет строить трубы задач (pipelines) и помогает решать более комплексно чем crontab, и потому что сильно проще чем Airflow. И, конечно, потому что концепция Everything as a code - не такая уж плохая концепция.
- The beginning of ‘Everything as Code’ [5] в качестве напоминания текст Ethan Batraski от 2020 года про то что "всё код" и концепцию Everything-as-a-Code (EaC). Он там приводит немало примеров того что можно, также, представить в форме кода: управление настройками, документацию, политики соответствия и тд. и тп.
- The World Bank Data Catalog [6] весьма развившийся каталог данных Мирового Банка. 5449 наборов данных на 24 сентября, из них 175 наборов данных связаны с Россией.

Ссылки:
[1] https://flakm.github.io/posts/rust_why_dev_shop/
[2] https://hurl.dev/
[3] https://www.bleepingcomputer.com/news/security/mfa-fatigue-hackers-new-favorite-tactic-in-high-profile-breaches/
[4] https://rocketry.readthedocs.io
[5] https://medium.com/ethanjb/the-beginning-of-everything-as-code-a25c4e9a75e9
[6] https://datacatalog.worldbank.org/home
[7] https://datacatalog.worldbank.org/search?fq=(geographical_extent%2Fcoverage%2Fany(geo:geo%2Fname%20eq%20%27Russian%20Federation%27))&q=&sort=last_updated_date%20desc

#opendata #data #opensource #datatools #readings
В рубрике интересных открытых проектов на данных Data Commons [1] проект по агрегированию открытых данных о географии, индикаторах и многих понятиях с формированием единой онтологии и визуального представления данных.

Данные внутри Data Commons предоставляются для запросов через Google BigQuery, точку подключения SPARQL и REST API. На апрель 2022 г. всего интегрировано в базу данных 2.9 миллионов мест, 3 миллиарда записей временных рядов, 100 000 переменных и 1.4 триллиона триплов (единичных значений).

Проект создан давно и активно развивается, например, недавно к нему добавили инструмент выгрузки данных [2].

Лично по мне так проект интересный, чем-то сравнимый с WikiData и, кстати, с WikiData интегрированный, а чем-то похожий на проекты по визуализации статистики вроде DataUSA и USAFacts.

Из особенностей, у авторов явно временно достигнут предел масштабирования поскольку они охватили довольно хорошо данные по США, но по другим странам, особенно малым, требуется значительно больше усилий, знания языков и тд. Кроме того многие понятия там закодированы так словно их нет за пределами США. Например, ссылка на почтовый индекс [3] не имеет странового префикса и такого много.

Проект поддерживается компанией Google, его код и код отдельных компонентов доступен как открытый код [4].

Ссылки:
[1] https://datacommons.org
[2] https://docs.datacommons.org/2022/09/14/download-tool.html
[3] https://datacommons.org/place/zip/60651
[4] https://github.com/datacommonsorg

#opendata #google #datasets
К вопросу о проектах по замене SQL на другие языки запросов, а есть и другой путь, создания спецификации описывающей все известные операции по работе с данными и работе SQL поверх неё и использования конверсии из её описания в SQL запросы.

Такой проект есть, он называется Substrait [1]. Его автор сооснователь проектов Apache Calcite, Apache Arrow, Apache Drill и ряда стартапов таких как Sundesk и Dreamio.

Основная идея в том чтобы стандарт для дата-операций был универсальным и через него можно было бы выполнять запросы к хранилищам данных.

Уже есть много референсных реализаций спецификации для Ibis, Dpyr, Apache Calcite, Trino и Spark.

Для тех кто не сталкивался с этими продуктами - все они представляют уровни абстракции для работы с данными. Например, Ibis в Python [3] даёт возможность делать SQL запросы без SQL. Удобно для тех кто любит Python way для работы с данными.

Substrait выглядит весьма перспективно, если вендоры в этом направлении потянутся, то может стать глобальной спецификацией и даже стандартом.

Ссылки:
[1] https://substrait.io/
[2] https://docs.google.com/presentation/d/1HQReIM6uB1Dli_yXfELOJWAE6KsvXAoUmHLlTYZ8laA/edit#slide=id.g1476627d6f9_0_213
[3] https://ibis-project.org

#standards #data #bigdata #dataengineering
Я вот уже несколько дней отказываюсь комментировать журналистам всё что связано с мобилизацией, войной, информатизацией военкоматов. Сейчас предостаточно политологов которые комментируют происходящее чуть ли не ежеминутно.

Я лично нахожусь в России, и надеюсь находится так долго как только смогу, как бы власти не усложняли жизнь мне и многим другим.

Но есть то я могу точно сказать и о чём говорить важно. Вся эта история с "отечественными сертификатами" у Сбербанка и корневыми сертификатами НУЦ Минцифры очень плохая.

Смысл сертификата в том чтобы обеспечивать защищённый канал связи между пользователем и сервером. Корневой сертификат необходим для того чтобы браузеры и другое ПО не выдавало ошибки при попытках связи с серверами использующими сертификаты выпущенные удостоверяющими центрами (УЦ).

УЦ, в свою очередь проходят определенную сертификацию для того чтобы обеспечить это доверие. Число таких корневых сертификатов в ОС Windows, MacOS, IOS, Android ограничено и то что там за все эти годы не появилось российского корневого УЦ должно только настораживать.

Добавив корневой сертификат в доверенные, сделает доверенными не только сертификат Сбербанка, но и может быть выпущен сертификат с помощью которого можно перехватывать трафик к HTTPS сайтам, например, органами правоохраны. Власти Казахстана пытались навязать госсертификат в декабре 2020 года (легко гуглится), но всё это провалилось в итоге. А здесь даже принуждения нет, вернее оно через принуждение сервисом: хочешь Сбербанк - ставь сертификат.

Поэтому, если всё таки, жизнь так распорядилась что доступ к сайту Сбербанка необходим или на другие сайты его распространят я рекомендую:
- либо устанавливать сертификат на отдельное, редко используемое устройство;
- либо устанавливать его на виртуальную операционную систему; используемую редко и не устанавливать его на основное устройство(-а)
- либо перестать использовать Сбербанк и любой иной сервис который такие сертификаты будет навязывать

#security #privacy
О том что Apple удалили из магазина приложений все приложения связанные с холдингом VK, это все, наверняка, уже прочитали. Вроде как ещё не удалили приложение Одноклассников, но если удаление было из-за санкций, то это вопрос только времени. Пока видно что в Google Play приложения MailRu Group остались, но, опять же, если удаление из-за санкций, то вероятность их исчезновения велика.

Правда для Android'а есть RuStore по приватности приложений в котором мы делали исследование совсем недавно и, если кратко, всё там даже хуже чем в Google Play.

Но я о другом. Много лет я пишу и два исследования мы провели о том что во многих приложениях содержатся внешние трекеры позволяющие третьим сторонам получать данные действий пользователей. В лидерах распространения таких трекеров глобальные рекламные корпорации вроде Facebook и Google, но, в России тоже есть свои игроки. Один из крупнейших из которых теперь холдинг VK.

Например, во многих приложениях стоят трекеры myTracker и myTarget от MailRu Group. В проекте Exodus Privacy посчитано 1281приложение с myTracker и 2826 с myTarget , но в реальности их гораздо больше. Кроме этих рекламных трекеров многие разработчики интегрируют SDK для авторизации во Вконтакте, есть как минимум 845 таких приложений. Всё это про приложения для Android, но SDK myTarget, myTracker и VKontakte есть и для iOS.

А теперь, внимание, вопрос․ Будут ли следующим шагом платформы Apple и Google предупреждать авторов приложений использующих трекеры VK о том что их приложения могут могут быть удалены из магазинов приложений если они этот код из приложений не уберут?

Следующим постом я запилил опрос на ту же тему.

#privacy #security #vk #mobileapps #trackers #android #apple
В рубрике полезных инструментов для обработки данных VisiData [1]. Это весьма популярный в ограниченных кругах открытый продукт по просмотру и обработке данных через визуальный текстовый интерфейс. Такие инструменты ещё называют TUI (Text User Interface). Для кого-то это будет напоминать утилиты вроде Dos Navigator / Norton Commander / Vim и ещё огромное число утилит для Unix / DOS. А сейчас это вновь набирающее оборот явление, можно сказать что переоткрываемое.

VisiData позволяет просматривать файлы и базы данных делая запросы, листая результаты и предоставляя возможность обрабатывать строки и колонки с данными. Плюс он там ещё может считать статистику по файлам, строить гистограммы и ещё много чего.

Хорошая утилита, как по мне. Идет, почти, вровень с open refine когда дело касается обработки данных (data wrangling / refining).

Как и все подобные GUI / TUI инструменты он, в первую очередь, полезен тем кто решает задачи обработки данных без программирования. Например, дата-журналистам и аналитикам.

Ссылки:
[1] https://github.com/saulpw/visidata

#data #datatools #dataengineering #datajournalism #datawrangling #opensource
В рубрике как это работает у них, вышло обновление [1] документа политики управления и обмена данными [2] National Institutes of Health (NIH) США через который преимущественно осуществляется госфинансирование исследований в области здравоохранения. NIH - это крупнейший грантодатель на биомедицинские исследования в мире и поэтому его политики устанавливают "правила игры" для большей части исследовательских центров в области биомедицины в США.

В документе есть три ключевых акцента.

1. Использование устоявшихся репозиториев. Это означает не создание своих порталов/репозиториев с нуля, а использование и не через персональные аккаунты, а через устоявшиеся институциональные репозитории такие как Dryad, например.

2. Своевременная публикация. Данные исследований должны публиковаться сразу же с научной работой или же по завершению работы в целом (определяется сроком завершения гранта выделенного на работу).

3. Подтверждение качества данных. На качестве данных делается существенный акцент и оно определяется как возможность проверки и воспроизведения исследования на их основе.

Ссылки:
[1] https://blog.datadryad.org/2022/09/23/u-s-policy-dryads-role-in-the-nihs-new-policy-for-data-management-and-sharing/
[2] https://grants.nih.gov/grants/guide/notice-files/NOT-OD-21-013.html#_ftn8

#opendata #datapolicy #openaccess
This media is not supported in your browser
VIEW IN TELEGRAM
В рубрике больших наборов данных Awesome Google Earth Engine Community Datasets [1] каталог геоданных специально подготовленных для быстрого подключения к Google Earth. В каталоге, в общей сложности 105.7 TB данных, 584 тысячи изображений, всего коллекций с изображениями 268, с описаниями объектов 414 и более 518 миллионов характеристик (features) объектов в общей сложности.

Из особенно интересного, там есть данные LandScan [3] собираемые ORNL (Oak Ridge National Laboratory) [4] в США. LandScan даёт возможность просматривать плотность населения на территориях с очень высоким разрешением.

Кроме того там много других интересных наборов данных для всех кто работает с геоданными.

Ссылки:
[1] https://samapriya.github.io/awesome-gee-community-datasets/
[2] https://samapriya.github.io/awesome-gee-community-datasets/stats/
[3] https://samapriya.github.io/awesome-gee-community-datasets/projects/landscan/
[4] https://landscan.ornl.gov

#opendata #datasets #geo #googleearth #datacatalogs
На РБК вышла статья с комментариями участников рынка про отъезд ИТ специалистов [1], там есть и мои комментарии и мне тоже есть что к этому добавить. Вообще много что есть написать, но требуется время чтобы упаковывать эти мысли в сухой профессиональный, а не эмоциональный текст.

Пишу, насколько возможно, сухо и коротко, по возможности без иронии:
1. Настроения плохие, мысли об отъезде есть даже у тех кто не собирался уезжать потому что их тут держат: престарелые родители, ипотека, семья, дети, обязательства и тд. Из последнего что я слышу в личных разговорах они звучат примерно так. "Они нас превращают в животных, мы теперь даже не можем думать о будущем", "Если бы нас напали я бы сам в военкомат пошёл, так не напали же!". Это дословно и буквально.
2. Причины не только в "частичной мобилизации", а в том как всё это проводится. Российские законы/указы Пр-та и Пост-я Пр-ва в последние годы почти все перешли в жанр "Всех расстрелять!". Они принимаются в самой неудобоваримой форме, а потом уже "поднимается вой" (читай - резкое возмущение) тех кого они затрагивают и начинаются запросы, письма, потоки лоббистов чтобы хоть чуточку сбавить их "людоедскость" (читай - неприемлимость). Каждый может гадать почему так: потому что неграмотные нормотворцы, потому что паника у авторов этих норм или потому что кто-то открыл(-и) кассовые комнаты и взимают оброк с просителей за конкретные защищаемые интересы. Лоббизм в России выродился в "защитный лоббизм", не того чтобы продвинуть свои интересы, а того чтобы добиться чтобы твои интересы пострадали меньше.
3. Поэтому когда принимается указ Пр-та после которого (неожиданно!) оказывается что он неконкретный, что его надо разъяснять, что вместо нормативных разъяснений идут ненормативные разъяснения от пропагандистов всех цветов радуги, то это поражает главное - полнейшее недоверие будущему. И смесь раздражения, злобы, уныния у тех кто будущего не видит.
4. Это звучит как "если они такое $&*$# вот так приняли, то что им помешает завтра принять закон который расширит категории военнообязанных или ещё чего". Мне лично трудно пока измерить уровень произошедшей делигитиматизации, но и без того невысокий уровень доверия гос-ву упал ещё ниже.
5. Тех кто не поддаётся панике куда больше волнует не мобилизация, а разговоры про применение ядерного оружия. Все кто знает как российская медийная машина устроена понимают что всех кто говорит про ядерное оружие могли бы легко заткнуть чтобы не нагнетать панику. Но их не затыкают, что означает что они чьи то интересы отрабатывают. Любое применение ядерного оружия сейчас - это перевод тех кто это сделает в статус военных преступников автоматически. Но может так оказаться что нас это волновать уже не будет.
6. Многие хвалят Максута Шадаева за то что он вписывается сейчас за ИТ рынок в РФ и делает всё возможное чтобы под мобилизацию попало меньше ИТ специалистов. Я ничего плохого про Максута сказать не могу, при всех возможных грехах он человеческого облика никогда не терял. Но, мы же все понимаем, что на настроения уезжать или нет, влияет не он. Меры доступные Минцифры РФ ограничены их полномочиями, они были бы хороши лет 10-15 назад, а сейчас не они могут исправить текущую ситуацию. В лучшем случае, чуть-чуть, сгладить.

Я бы сказал что у меня есть какой-то рецепт как делать всё правильно, но у меня его нет. Процитирую Фазиля Искандера из "Кролики и удавы" - "Если мудрость не может творить добро, она удлиняет путь зла". Будьте мудры.

Я, ещё раз подчеркну, что пишу в России и остаюсь в России так долго как только смогу.

Ссылки:
[1] https://www.rbc.ru/technology_and_media/28/09/2022/633324f39a7947518c6fd452

#it #itmarket #thoughts
В рубрике интересных наборов данных Bible geocoding data [1] набор данных по геокодированию мест упомянутых в библии. Автор занимался этим с 2007 года и в прошлом году существенно обновил предыдущую работу. О самой инициативе и данные для Google Earth в формате KMZ есть на его сайте [2] и там же у него на сайте OpenBible разного рода эксперименты по визуализации [3].

Из весьма интересного - это AI-Assisted Bible Study [4] суммаризатор ответов и вопросов по главам библии через использование ИИ.

В данном случае библия важный пример, но сам подход ей не ограничивается. Один из путей/способов развития цифровой гуманитаристики - это подходы "всё-код" и "всё-данные". Любое художественное, религиозное или документальное произведение можно рассматривать как базу данных. Можно, например, геокодировать "Войну и мир", превращать в граф знаний "Властелин колец" и остальные произведения Толкиена, проводить интерактивную реконструкцию исторических событий. О многих подобных проектах я пишу время от времени [5].

Важное отличие современных проектов в этой области - это открытость данных и кода. Открытые проекты позволяют создавать новые проекты/продукты/исследования на их основе.

Ссылки:
[1] https://github.com/openbibleinfo/Bible-Geocoding-Data
[2] https://www.openbible.info/geo/
[3] https://www.openbible.info/labs/
[4] https://www.openbible.info/labs/ai-bible-study/
[5] https://t.me/begtin/4147

#datasets #opensource #opendata #digitalhumanities
Если Вы ещё думаете какой язык программирования изучать, то вот маленькая подсказка в виде графика популярности языков программирования для data science из доклада State of data science проведенного KDNuggets в 2021 году и картинка отметок применимости языков программирования для разного рода задач связанных с данными. Во втором случае, ИМХО, не вполне корректно про Rust и Go, для этих языков сейчас много что написано расширяющего возможности работы с данными, но в остальном похоже на правду.

А также, в добавок и для разноообразия источник этих материалов и текст с рассуждением на испанском языке на портале открытых данных Испании [1] (не всё же англоязычные тексты постить, в самом деле).

Ссылки:
[1] https://datos.gob.es/es/blog/cuando-utilizar-cada-lenguaje-de-programacion-en-ciencia-de-datos

#data
Полезное чтение про данные, технологии и не только:
- datasets-server [1] сервер для работы с наборами данных от Hugging Faces. К уже существующим open source каталогам данных появляется новая категория, каталоги данных ориентированные не просто на data science, а на публичное машинное обучение.
- refurb [2] утилита для языка Python по повышению качества кода. Правил пока мало, работает только на Python 3.10, но результаты интересные. Она не заменяет pylint, не проверяет стиль кода, а именно улучшает имеющийся код.
- Better than JPEG? Researcher discovers that Stable Diffusion can compress images [3] исследователи выяснили что с помощью Stable Diffusion можно достигать лучше сжатия JPEG'ов. Даже интересно когда развитие ИИ достигнет уровня разработки новых алгоритмов сжатия.
- Open Sourcing Venice – LinkedIn’s Derived Data Platform [4] в блоге LinkedIn о платформе работы с данными Venice. Пока не до конца понятно как её использовать саму по себе, она выглядит интегрированной в другие дата-продукты LinkedIn
- Platformatic DB [5] основанный на Node JS движок генерирующий REST API и GraphQL поверх схемы СУБД. Не первый и не последний такой движок, но несомненно надо бы его потестить в работе.
- StockAI [6] "убийца" стоковых каталогов, огромная база стоковых изображений и генератор новых если такого ещё нет. Страшная вещь, поубивает весь стоковый рынок. Интересно какие ещё рынки можно поубивать генераторами изображений? Генератор воллпейперов через ИИ ещё не сделали?
- What is Data Engineering: Part 2 [7] вторая часть описания природы инженерии данных от Pragmatic Programmer. Полезно для всех кто работает в этой области.

Ссылки:
[1] https://github.com/huggingface/datasets-server
[2] https://github.com/dosisod/refurb
[3] https://arstechnica.com/information-technology/2022/09/better-than-jpeg-researcher-discovers-that-stable-diffusion-can-compress-images/
[4] https://engineering.linkedin.com/blog/2022/open-sourcing-venice--linkedin-s-derived-data-platform
[5] https://oss.platformatic.dev/
[6] https://www.stockai.com/
[7] https://newsletter.pragmaticengineer.com/p/what-is-data-engineering-part-2

#opensource #data #datatools #readings
В качестве регулярных напоминаний, хотя и разработка кода не основное моё занятие, я довольно много публикую открытого кода, более всего для обработки данных. В первую очередь для поддержания собственных навыков в Python и для того чтобы были инструменты для того что сам же делаешь.

Работа с данными
- datacrafter - ETL движок для NoSQL данных с обработкой их с помощью конфигурационных файлов написанных на YAML. Заход на аналог Meltano или Dagster, но для NoSQL. Используется в datacrafter.ru
- apicrafter - автоматизированная оболочка для генерации REST API для доступа к данным в базах MongoDB. Используется в datacrafter.ru
- metacrafter - утилита по автоматической идентификации семантических типов данных. Используется для идентификации персональных данных в наборах данных. Поддерживает базы данных с SQL, файлы JSON, CSV, JSON lines, BSON и MongoDB
- undatum - утилита для командной строки для обработки иерархических данных в JSON lines и BSON. Поддерживает также CSV, но это не основная возможность. Позволяет считать статистику, извлекать частоты значений, уникальные значения, преобразовывать данные
- mongorefine - экспериментальная библиотека для Python по обработке данных в MongoDB как если бы MongoDB была бы колоночной, а не документальной базой. Позволяет проводить операции над коллекциями данных на колоночном уровне: добавлять, удалять, преобразовывать. Функции похожи на функции OpenRefine, известного открытого инструмента для подготовки данных
- mongo2md - утилита и библиотека для Python по автоматическому документированию коллекций для MongoDB
- diffmongo - библиотека для Python по сравнению данных в коллекциях MongoDB

Парсинг и сбор данных
- newsworker - библиотека для Python по автоматическому извлечению текстов новостей из сайтов где нет RSS лент. Работает полностью автоматически, разбирает структуру страницы, идентифицирует картинки, даты, тексты и формирует новостную ленту. Использует библиотеку qddate
- qddate - библиотека для Python для автоматической идентификации дат в любом написании. Умеет распознавать более 300 форматов на многих языках. Используется во многих других репозиториях и проектах.
- russiannames - библиотека для Python по автоматическому парсингу имён на русском языке, идентификации гендера и немножко национальных признаков. Умеет идентифицировать ФИО в форматах "Иван Петров", "Сидоров Иван Петрович", "Иванов В.А.", "Иванова А." и тд. Включает большую базу фамилий, имен и отчеств.
- docx2csv - библиотека для Python и утилита извлечения таблиц из файлов docx. Очень удобна для генерации CSV файлов из разного рода корпоративных и госотчетов. Но только для docx
- lazyscraper - утилита командной строки по быстрому извлечению таблиц и иных данных из веб-страниц с минимальными усилиями кодирования. Фактически только через написание xpath запроса. Изначально хотелось сделать её ещё более умной, но и это оказалось полезным.

Работа с веб-архивами и цифровая архивация
- metawarc - утилита для автоматизации обработки WARC файлов. Изначально создавалась в целях расследований для автоматизации извлечения свойств файлов MS Office и PDF из веб-архивов. Когда ты вначале всё архивируешь, а потом уже из веб архива собираешь метаданные. Я с её помощью проводил исследования использования пиратского ПО в российских госорганах несколько лет назад.
- apibackuper - утилита по автоматизации выгрузки данных из общедоступных API. Используется в Национальном цифровом архиве и в datacrafter.ru для формирования наборов данных
- ydiskarc - утилита для архивации данных по публичным ссылкам на Яндекс диск. Используется в Национальном цифровом архиве для архивации папок с Яндекс Диска
- wparc - утилита по архивации контента сайтов на Wordpress и медиа файлов с этих сайтов посредством встроенного в Wordpress REST API. Используется в Национальном цифровом архиве
- spcrawler - утилита по выгрузке данных из сайтов на базе Sharepoint используя их общедоступное API. Не завершена, но в работе.

#opensource #datatools #data #commandline #python