Android + Termux + Emacs + Python + NLTK = статистика встречаемости слов на сайте hackerspaces.org.
Rob Pike: "Ken [Thompson] taught me that thinking before debugging is extremely important. If you dive into the bug, you tend to fix the local issue in the code, but if you think about the bug first, how the bug came to be, you often find and correct a higher-level problem in the code that will improve the design and prevent further bugs."
Мой перевод: "Кен [Томпсон] научил меня тому, что думать перед отладкой крайне важно. Если вы погружаетесь в решение проблемы, то обычно вы решаете локальную проблему в коде, но если вы сначала думаете над багом, о том, как он возник -- вы часто можете выявить и исправить высокоуровневую проблему в коде, что в свою очередь улучшает дизайн и предотвращает последующие баги."
Интересная статья от Роба Пайка, "The Best Programming Advice I Ever Got": https://www.informit.com/articles/article.aspx?p=1941206
Мой перевод: "Кен [Томпсон] научил меня тому, что думать перед отладкой крайне важно. Если вы погружаетесь в решение проблемы, то обычно вы решаете локальную проблему в коде, но если вы сначала думаете над багом, о том, как он возник -- вы часто можете выявить и исправить высокоуровневую проблему в коде, что в свою очередь улучшает дизайн и предотвращает последующие баги."
Интересная статья от Роба Пайка, "The Best Programming Advice I Ever Got": https://www.informit.com/articles/article.aspx?p=1941206
Informit
"The Best Programming Advice I Ever Got" with Rob Pike | | InformIT
Rob Pike, now a Distinguished Engineer at Google, worked at Bell Labs as a member of the Unix Team and co-created Plan 9 and Inferno. He was central to the creation of the Go and Limbo programming languages. Rob shares an experience at Bell Labs that changed…
Роб Пайк работает в Google, где он занимается разработкой языка программирования Go. Он также работал в Computing Science Research Center в Bell Labs. Также он был главным архитектором операционных систем Plan 9 и Inferno. Его главный исследовательский интерес направлен на разработку программного обеспечения, упрощающего разработку программного обеспечения.
В Массачусском технологическом университете (MIT) разработали программу TextFooler, которая призвана обманывать системы обработки естесственного текста (NLP) и заставлять их делать неправильные выводы о смысле текста. Для справки: NLP-системы используются, к примеру, голосовыми помощниками вроде Алисы (Yandex), Alexa (Amazon) или Siri (Apple) для разбора и обработки запросов пользователей.
"Если данные инструменты уязвимы для целенаправленных атак, то последствия могут быть катастрофическими," -- говорит Di Jin, аспирант MIT и главный автор статьи по теме TextFooler, -- "Эти инструменты должны иметь эффективные методы самозащиты, и для разработки подобных методов мы должны сначала понять методы атак."
TextFooler состоит из двух частей: первая часть изменяет исходный текст, вторая часть использует изменённый текст для проверки, могут ли изменения обмануть два разных метода распознавания естественного языка.
Система находит наиболее важные для понимания смысла текста слова, которые повлияют на конечную модель, создаваемую NLP-системой, и затем заменяет их на синонимы, которые подходят по смыслу. При этом TextFooler старается сохранить связность текста и оригинальный смысл, дабы он выглядил "человечным". Затем два разных NLP-метода применяются к полученному тексту: классификация текста и логический анализ (какие отношения между частями в предложении?) с целью поменять результат классификации или привести к неверным результатам логического анализа.
Пример входной строки: “The characters, cast in impossibly contrived situations, are totally estranged from reality.”
Пример изменённой TextFooler строки (изменённые слова выделены): “The characters, cast in impossibly engineered circumstances, are fully estranged from reality.”
В целом, данная система использовалась для успешной атаки на три разных NLP-модели, включая open source-модель "BERT". TextFooler позволил снизить точность разбора текста с 90% до 20% через изменение только 10% слов в исходном тексте.
Исследователи замечают, что атаки на существующие NLP-системы не являются конечной целью, и надеются, что их работа позволит создать более абстрактные модели для обобщения новых, не явных данных.
"Система может использоваться (с необходимыми модификациями, если потребуется) для атак на любую NLP-модель, используемую для классификации текста для проверки её надёжности," -- говорит Jin -- "С другой стороны, сгенерированные атаки могут быть для повышения надёжности и обобщённости моделей глубокого обучения через метод adversarial training, что является критически важным результатом нашей работы."
Исходный код системы: https://github.com/jind11/TextFooler
"Если данные инструменты уязвимы для целенаправленных атак, то последствия могут быть катастрофическими," -- говорит Di Jin, аспирант MIT и главный автор статьи по теме TextFooler, -- "Эти инструменты должны иметь эффективные методы самозащиты, и для разработки подобных методов мы должны сначала понять методы атак."
TextFooler состоит из двух частей: первая часть изменяет исходный текст, вторая часть использует изменённый текст для проверки, могут ли изменения обмануть два разных метода распознавания естественного языка.
Система находит наиболее важные для понимания смысла текста слова, которые повлияют на конечную модель, создаваемую NLP-системой, и затем заменяет их на синонимы, которые подходят по смыслу. При этом TextFooler старается сохранить связность текста и оригинальный смысл, дабы он выглядил "человечным". Затем два разных NLP-метода применяются к полученному тексту: классификация текста и логический анализ (какие отношения между частями в предложении?) с целью поменять результат классификации или привести к неверным результатам логического анализа.
Пример входной строки: “The characters, cast in impossibly contrived situations, are totally estranged from reality.”
Пример изменённой TextFooler строки (изменённые слова выделены): “The characters, cast in impossibly engineered circumstances, are fully estranged from reality.”
В целом, данная система использовалась для успешной атаки на три разных NLP-модели, включая open source-модель "BERT". TextFooler позволил снизить точность разбора текста с 90% до 20% через изменение только 10% слов в исходном тексте.
Исследователи замечают, что атаки на существующие NLP-системы не являются конечной целью, и надеются, что их работа позволит создать более абстрактные модели для обобщения новых, не явных данных.
"Система может использоваться (с необходимыми модификациями, если потребуется) для атак на любую NLP-модель, используемую для классификации текста для проверки её надёжности," -- говорит Jin -- "С другой стороны, сгенерированные атаки могут быть для повышения надёжности и обобщённости моделей глубокого обучения через метод adversarial training, что является критически важным результатом нашей работы."
Исходный код системы: https://github.com/jind11/TextFooler
MIT News
Hey Alexa! Sorry I fooled you ...
MIT’s Computer Science and Artificial Intelligence Laboratory (CSAIL) came up with “TextFooler,” a framework that can attack natural language processing systems — the types of systems that let us interact with our Siri and Alexa voice assistants — and “fool”…
Вместе с Magnapinna (@q2q4q8) перевели статью "Обзор технологий аддитивного производства для био-имплантов", опубликованную под лицензией Creative Commons 4.0 Attribution International в ноябре 2019 года. Взялись за перевод, так как в статье хорошо расписаны различные технологии аддитивного производства. Поскольку у нас в хакерспейсе активно используется 3D-печать, было интересно ознакомиться со взглядом на данную технологию со стороны медицины.
Перевод можно увидеть на кадровики: https://cadrspace.ru/w/index.php?title=%D0%9E%D0%B1%D0%B7%D0%BE%D1%80_%D1%82%D0%B5%D1%85%D0%BD%D0%BE%D0%BB%D0%BE%D0%B3%D0%B8%D0%B9_%D0%B0%D0%B4%D0%B4%D0%B8%D1%82%D0%B8%D0%B2%D0%BD%D0%BE%D0%B3%D0%BE_%D0%BF%D1%80%D0%BE%D0%B8%D0%B7%D0%B2%D0%BE%D0%B4%D1%81%D1%82%D0%B2%D0%B0_%D0%B4%D0%BB%D1%8F_%D0%B1%D0%B8%D0%BE-%D0%B8%D0%BC%D0%BF%D0%BB%D0%B0%D0%BD%D1%82%D0%BE%D0%B2
Перевод можно увидеть на кадровики: https://cadrspace.ru/w/index.php?title=%D0%9E%D0%B1%D0%B7%D0%BE%D1%80_%D1%82%D0%B5%D1%85%D0%BD%D0%BE%D0%BB%D0%BE%D0%B3%D0%B8%D0%B9_%D0%B0%D0%B4%D0%B4%D0%B8%D1%82%D0%B8%D0%B2%D0%BD%D0%BE%D0%B3%D0%BE_%D0%BF%D1%80%D0%BE%D0%B8%D0%B7%D0%B2%D0%BE%D0%B4%D1%81%D1%82%D0%B2%D0%B0_%D0%B4%D0%BB%D1%8F_%D0%B1%D0%B8%D0%BE-%D0%B8%D0%BC%D0%BF%D0%BB%D0%B0%D0%BD%D1%82%D0%BE%D0%B2
This media is not supported in your browser
VIEW IN TELEGRAM
Адаптированный пример игры "Жизнь" из библиотеки
HD_MAXPanel на светодиодной панели MAX7219 32x8, подключенной по SPI к NodeMCU.
