Капец у меня башка кипит. Исчесал документацию вдоль и поперёк. Нет более подробной инфы.
Обшарил ютуб и гугл. Нет подходящего ответа, либо через колено делают, либо не на питоне.
Вот так, чтоб как в документации - нет нигде примера.
Ох блять.
Вторые сутки потеряны. Впереди выходные, и вместо отдыха - буду навёрстывать упущенное время, потому что время не в мою пользу сейчас. И надо максимально наверстать эти два дня и дать результат ещё и наперёд, чтоб компенсировать потерю времени.
- - - -
Важно - простейшие функции отрабатывают. Всё ок, Яндекс.Функция стартует, и делает return нужного значения.
Работаю над усложнением. Чтобы импортировала модули и ими обрабатывала простейшую команду.
Обшарил ютуб и гугл. Нет подходящего ответа, либо через колено делают, либо не на питоне.
Вот так, чтоб как в документации - нет нигде примера.
Ох блять.
Вторые сутки потеряны. Впереди выходные, и вместо отдыха - буду навёрстывать упущенное время, потому что время не в мою пользу сейчас. И надо максимально наверстать эти два дня и дать результат ещё и наперёд, чтоб компенсировать потерю времени.
- - - -
Важно - простейшие функции отрабатывают. Всё ок, Яндекс.Функция стартует, и делает return нужного значения.
Работаю над усложнением. Чтобы импортировала модули и ими обрабатывала простейшую команду.
Интересный опыт работы с этим облаком.
Теперь становится понятно, что не всегда его ОШИБКА, это прям ошибка.
Обрати внимание - на тестировании функции, в ответе функция возвращает ДЖСОН. Всё окей, всё как надо, другие ИДЕ возвращают ДЖСОН именно так.
Но, при попытке вызвать функцию ЧЕРЕЗ ССЫЛКУ ВЫЗОВА В БРАУЗЕРЕ, выпадает ошибка 502.
Теперь, у меня явное подозрение, что прошлая ошибка, с которой я столкнулся в прошлом посте - вызвана скорее всего вот такой разницей восприятия ответа внутри Яндекс.Облака.
Потому что НУ НЕ МОЖЕТ ИТЕРИРУЕМЫЙ ЛИСТ вдруг на ровном месте начать считаться не итерируемым.
Окей. Отлично. Теперь можно идти спать, завтра хотя бы понятно, куда копать.
Теперь становится понятно, что не всегда его ОШИБКА, это прям ошибка.
Обрати внимание - на тестировании функции, в ответе функция возвращает ДЖСОН. Всё окей, всё как надо, другие ИДЕ возвращают ДЖСОН именно так.
Но, при попытке вызвать функцию ЧЕРЕЗ ССЫЛКУ ВЫЗОВА В БРАУЗЕРЕ, выпадает ошибка 502.
Теперь, у меня явное подозрение, что прошлая ошибка, с которой я столкнулся в прошлом посте - вызвана скорее всего вот такой разницей восприятия ответа внутри Яндекс.Облака.
Потому что НУ НЕ МОЖЕТ ИТЕРИРУЕМЫЙ ЛИСТ вдруг на ровном месте начать считаться не итерируемым.
Окей. Отлично. Теперь можно идти спать, завтра хотя бы понятно, куда копать.
Отлично. Функция работает полностью, в не упрощённом режиме.
Ошибка? Да, есть ошибка с тем, что система в "только для чтения" режиме находится. Но это поправимо.
Куда важнее — что Яндекс.Функция на облаке работает, возвращает значения как надо, и даже пытается вернуть мне записанный цсв файл, но пока не может (т.к. прав на запись нет). А значит отрабатывает она свою задачу великолепно.
Ура! Я победил Облачные Функции.
Мишшен Комлитед!🚬😏
(на самом деле нет ещё, т.к. надо сделать отдачу файла\запись файла, но это уже задача второй важности)
Ошибка? Да, есть ошибка с тем, что система в "только для чтения" режиме находится. Но это поправимо.
Куда важнее — что Яндекс.Функция на облаке работает, возвращает значения как надо, и даже пытается вернуть мне записанный цсв файл, но пока не может (т.к. прав на запись нет). А значит отрабатывает она свою задачу великолепно.
Ура! Я победил Облачные Функции.
Мишшен Комлитед!🚬😏
(на самом деле нет ещё, т.к. надо сделать отдачу файла\запись файла, но это уже задача второй важности)
Каааароче.
Решения у задачи ДВА. Или три.
1. Сделать экспорт pandas-датафрейма в Google Sheets;
2. Сделать ход конём через колено — «скачивание объекта из хранилища», редактура его в памяти и «загрузка объекта в хранилище». Это пиздец долго и неудобно делать будет, но как вариант вполне;
3. Вывод данных куда-то ещё (на сайт, в Таблё, в Гугл Дата Студио, куда угодно короче. Хоть в бэкенд у десктопного приложения, чтобы уже стационарно сохранить файл и вывести данные в стационарном приложении на компе на экран в виде графиков, например;
Решения у задачи ДВА. Или три.
1. Сделать экспорт pandas-датафрейма в Google Sheets;
2. Сделать ход конём через колено — «скачивание объекта из хранилища», редактура его в памяти и «загрузка объекта в хранилище». Это пиздец долго и неудобно делать будет, но как вариант вполне;
3. Вывод данных куда-то ещё (на сайт, в Таблё, в Гугл Дата Студио, куда угодно короче. Хоть в бэкенд у десктопного приложения, чтобы уже стационарно сохранить файл и вывести данные в стационарном приложении на компе на экран в виде графиков, например;
Итак, функция в облаке работает исправно.
Триггер «Таймер» работает исправно.
Значит теперь заворачиваю всё это в инструкцию (поделиться не могу, это рабочий продукт, негласный NDA и т.д.)
Но, облако свою задачу выполняет. Осталось это описать, чтобы любой участник в команде смог повторить.
Триггер «Таймер» работает исправно.
Значит теперь заворачиваю всё это в инструкцию (поделиться не могу, это рабочий продукт, негласный NDA и т.д.)
Но, облако свою задачу выполняет. Осталось это описать, чтобы любой участник в команде смог повторить.
Forwarded from addmeto (Grigory Bakunov)
Судя по коммитам в исходный код signal причина его падения оказалась анекдотической: из-за роста числа пользователей часть серверов начала отвечать внутренней ошибкой 508. Это сообщение не обрабатывалось клиентом, и поэтому сразу после его получения клиент снова обращался к серверу (и так по кругу, без возможности выода). Сами себе устроили DDoS. https://twitter.com/NovakDaniel/status/1350471722034745348
Twitter
Daniel Novak
I think the @signalapp apps DDoS'ed the server. Servers ran over capacity due to influx of users and started to return HTTP 508 which was not handled by the app and millions of apps started retrying the connection at once. Judging from recent commits in …
Честно свиснул в другом канале, за контент которого не могу ручаться, поэтому не репостом, чтоб не вовлекать вас в непонятные каналы.
Цитата «🔥Первый случай применения технологии deep fake русскоязычными мошенниками.
Мошенники сделали 28-минутный видеоролик, в котором известный предприниматель, основатель Flocktory и Dbrain Дмитрий Мацкевич продвигает систему заработка на основе искусственного интеллекта.
Зацените ролик.
Но Дмитрий Мацкевич ничего подобного не делал. Видеообраз сгенерирован компьютером.
Цель мошенников — завлечь в лжеброкера Barclay Stone, где телефонные мошенники присвоят деньги, иногда очень большие.
Вот ещё один дип-фейк-ролик на 2 минуты с приглашением на мастер-класс Дмитрия Мацкевича с обещанием дохода в 360% годовых.
Раньше мошенники ограничивались тем, что меняли звук в существующих видео с известными персонами. Но технологии развиваются.»
Цитата «🔥Первый случай применения технологии deep fake русскоязычными мошенниками.
Мошенники сделали 28-минутный видеоролик, в котором известный предприниматель, основатель Flocktory и Dbrain Дмитрий Мацкевич продвигает систему заработка на основе искусственного интеллекта.
Зацените ролик.
Но Дмитрий Мацкевич ничего подобного не делал. Видеообраз сгенерирован компьютером.
Цель мошенников — завлечь в лжеброкера Barclay Stone, где телефонные мошенники присвоят деньги, иногда очень большие.
Вот ещё один дип-фейк-ролик на 2 минуты с приглашением на мастер-класс Дмитрия Мацкевича с обещанием дохода в 360% годовых.
Раньше мошенники ограничивались тем, что меняли звук в существующих видео с известными персонами. Но технологии развиваются.»
Я не пропал. Делаю одну прикольную штуку.
Ведь для аналитики надо не только уметь обрабатывать данные, но и добывать.
Поэтому последнюю неделю я плотно изучал курс по парсингу от Молчанова.
Чтобы не сохранять на компе 5 тыс страниц, собрал парочку для изучения их строения.
И пишу сейчас функции для сбора данных прям на ходу, и сохранения в БД (пока в цсв-шку, потом хочу в скулайт загружать)
Готовлю интересный кейс по аналитике на основе этих данных
Думаю выборки в 5235 единиц данных должно хватить для неплохого исследования.
Ведь для аналитики надо не только уметь обрабатывать данные, но и добывать.
Поэтому последнюю неделю я плотно изучал курс по парсингу от Молчанова.
Чтобы не сохранять на компе 5 тыс страниц, собрал парочку для изучения их строения.
И пишу сейчас функции для сбора данных прям на ходу, и сохранения в БД (пока в цсв-шку, потом хочу в скулайт загружать)
Готовлю интересный кейс по аналитике на основе этих данных
Думаю выборки в 5235 единиц данных должно хватить для неплохого исследования.
Forwarded from Вадим Курило
Написали бота, куда можно ввести слово, а на выходе получить график из Google Trends. Бот бесплатный, прошу только подписку на канал. Так как вы уже подписаны, то от вас ничего не нужно) Пользуйтесь @G_trendsBot
Итак. Парсер работает отлично (см. выше).
Данные спарсил, в таблицу выгрузил.
Но это ещё не все данные)))
Пока я парсил только то, что выдаётся на главной странице сайта. По 50 проституток на странице, всего страниц 104 было.
Сегодня буду обогащать собранные данные, парсингом каждой отдельной страницы проститутки. Оттуда надо достать перечень допуслуг, рейтинг и отзывы. А также имя)))
А, ещё надо разделить данные внутри двух столбцов, а то у меня «технические характеристики» слипшиеся по две характеристики в одной ячейке (издержки ранних версий функции парсинга, надо докручивать), в первую очередь этим займусь.
И ещё, надо проверить, почему собралось 4900 строк данных, а не 5300. Где-то явно ошибка, которую я не обработал.
Ну и потом буду лоск наводить, в виде дикт.компрехеншенов и прочего.
Будет рок-н-ролльная аналитика на этой неделе😏По московским проституткам🔥
Данные спарсил, в таблицу выгрузил.
Но это ещё не все данные)))
Пока я парсил только то, что выдаётся на главной странице сайта. По 50 проституток на странице, всего страниц 104 было.
Сегодня буду обогащать собранные данные, парсингом каждой отдельной страницы проститутки. Оттуда надо достать перечень допуслуг, рейтинг и отзывы. А также имя)))
А, ещё надо разделить данные внутри двух столбцов, а то у меня «технические характеристики» слипшиеся по две характеристики в одной ячейке (издержки ранних версий функции парсинга, надо докручивать), в первую очередь этим займусь.
И ещё, надо проверить, почему собралось 4900 строк данных, а не 5300. Где-то явно ошибка, которую я не обработал.
Ну и потом буду лоск наводить, в виде дикт.компрехеншенов и прочего.
Будет рок-н-ролльная аналитика на этой неделе😏По московским проституткам🔥