Интересный опыт работы с этим облаком.
Теперь становится понятно, что не всегда его ОШИБКА, это прям ошибка.
Обрати внимание - на тестировании функции, в ответе функция возвращает ДЖСОН. Всё окей, всё как надо, другие ИДЕ возвращают ДЖСОН именно так.
Но, при попытке вызвать функцию ЧЕРЕЗ ССЫЛКУ ВЫЗОВА В БРАУЗЕРЕ, выпадает ошибка 502.
Теперь, у меня явное подозрение, что прошлая ошибка, с которой я столкнулся в прошлом посте - вызвана скорее всего вот такой разницей восприятия ответа внутри Яндекс.Облака.
Потому что НУ НЕ МОЖЕТ ИТЕРИРУЕМЫЙ ЛИСТ вдруг на ровном месте начать считаться не итерируемым.
Окей. Отлично. Теперь можно идти спать, завтра хотя бы понятно, куда копать.
Теперь становится понятно, что не всегда его ОШИБКА, это прям ошибка.
Обрати внимание - на тестировании функции, в ответе функция возвращает ДЖСОН. Всё окей, всё как надо, другие ИДЕ возвращают ДЖСОН именно так.
Но, при попытке вызвать функцию ЧЕРЕЗ ССЫЛКУ ВЫЗОВА В БРАУЗЕРЕ, выпадает ошибка 502.
Теперь, у меня явное подозрение, что прошлая ошибка, с которой я столкнулся в прошлом посте - вызвана скорее всего вот такой разницей восприятия ответа внутри Яндекс.Облака.
Потому что НУ НЕ МОЖЕТ ИТЕРИРУЕМЫЙ ЛИСТ вдруг на ровном месте начать считаться не итерируемым.
Окей. Отлично. Теперь можно идти спать, завтра хотя бы понятно, куда копать.
Отлично. Функция работает полностью, в не упрощённом режиме.
Ошибка? Да, есть ошибка с тем, что система в "только для чтения" режиме находится. Но это поправимо.
Куда важнее — что Яндекс.Функция на облаке работает, возвращает значения как надо, и даже пытается вернуть мне записанный цсв файл, но пока не может (т.к. прав на запись нет). А значит отрабатывает она свою задачу великолепно.
Ура! Я победил Облачные Функции.
Мишшен Комлитед!🚬😏
(на самом деле нет ещё, т.к. надо сделать отдачу файла\запись файла, но это уже задача второй важности)
Ошибка? Да, есть ошибка с тем, что система в "только для чтения" режиме находится. Но это поправимо.
Куда важнее — что Яндекс.Функция на облаке работает, возвращает значения как надо, и даже пытается вернуть мне записанный цсв файл, но пока не может (т.к. прав на запись нет). А значит отрабатывает она свою задачу великолепно.
Ура! Я победил Облачные Функции.
Мишшен Комлитед!🚬😏
(на самом деле нет ещё, т.к. надо сделать отдачу файла\запись файла, но это уже задача второй важности)
Каааароче.
Решения у задачи ДВА. Или три.
1. Сделать экспорт pandas-датафрейма в Google Sheets;
2. Сделать ход конём через колено — «скачивание объекта из хранилища», редактура его в памяти и «загрузка объекта в хранилище». Это пиздец долго и неудобно делать будет, но как вариант вполне;
3. Вывод данных куда-то ещё (на сайт, в Таблё, в Гугл Дата Студио, куда угодно короче. Хоть в бэкенд у десктопного приложения, чтобы уже стационарно сохранить файл и вывести данные в стационарном приложении на компе на экран в виде графиков, например;
Решения у задачи ДВА. Или три.
1. Сделать экспорт pandas-датафрейма в Google Sheets;
2. Сделать ход конём через колено — «скачивание объекта из хранилища», редактура его в памяти и «загрузка объекта в хранилище». Это пиздец долго и неудобно делать будет, но как вариант вполне;
3. Вывод данных куда-то ещё (на сайт, в Таблё, в Гугл Дата Студио, куда угодно короче. Хоть в бэкенд у десктопного приложения, чтобы уже стационарно сохранить файл и вывести данные в стационарном приложении на компе на экран в виде графиков, например;
Итак, функция в облаке работает исправно.
Триггер «Таймер» работает исправно.
Значит теперь заворачиваю всё это в инструкцию (поделиться не могу, это рабочий продукт, негласный NDA и т.д.)
Но, облако свою задачу выполняет. Осталось это описать, чтобы любой участник в команде смог повторить.
Триггер «Таймер» работает исправно.
Значит теперь заворачиваю всё это в инструкцию (поделиться не могу, это рабочий продукт, негласный NDA и т.д.)
Но, облако свою задачу выполняет. Осталось это описать, чтобы любой участник в команде смог повторить.
Forwarded from addmeto (Grigory Bakunov)
Судя по коммитам в исходный код signal причина его падения оказалась анекдотической: из-за роста числа пользователей часть серверов начала отвечать внутренней ошибкой 508. Это сообщение не обрабатывалось клиентом, и поэтому сразу после его получения клиент снова обращался к серверу (и так по кругу, без возможности выода). Сами себе устроили DDoS. https://twitter.com/NovakDaniel/status/1350471722034745348
Twitter
Daniel Novak
I think the @signalapp apps DDoS'ed the server. Servers ran over capacity due to influx of users and started to return HTTP 508 which was not handled by the app and millions of apps started retrying the connection at once. Judging from recent commits in …
Честно свиснул в другом канале, за контент которого не могу ручаться, поэтому не репостом, чтоб не вовлекать вас в непонятные каналы.
Цитата «🔥Первый случай применения технологии deep fake русскоязычными мошенниками.
Мошенники сделали 28-минутный видеоролик, в котором известный предприниматель, основатель Flocktory и Dbrain Дмитрий Мацкевич продвигает систему заработка на основе искусственного интеллекта.
Зацените ролик.
Но Дмитрий Мацкевич ничего подобного не делал. Видеообраз сгенерирован компьютером.
Цель мошенников — завлечь в лжеброкера Barclay Stone, где телефонные мошенники присвоят деньги, иногда очень большие.
Вот ещё один дип-фейк-ролик на 2 минуты с приглашением на мастер-класс Дмитрия Мацкевича с обещанием дохода в 360% годовых.
Раньше мошенники ограничивались тем, что меняли звук в существующих видео с известными персонами. Но технологии развиваются.»
Цитата «🔥Первый случай применения технологии deep fake русскоязычными мошенниками.
Мошенники сделали 28-минутный видеоролик, в котором известный предприниматель, основатель Flocktory и Dbrain Дмитрий Мацкевич продвигает систему заработка на основе искусственного интеллекта.
Зацените ролик.
Но Дмитрий Мацкевич ничего подобного не делал. Видеообраз сгенерирован компьютером.
Цель мошенников — завлечь в лжеброкера Barclay Stone, где телефонные мошенники присвоят деньги, иногда очень большие.
Вот ещё один дип-фейк-ролик на 2 минуты с приглашением на мастер-класс Дмитрия Мацкевича с обещанием дохода в 360% годовых.
Раньше мошенники ограничивались тем, что меняли звук в существующих видео с известными персонами. Но технологии развиваются.»
Я не пропал. Делаю одну прикольную штуку.
Ведь для аналитики надо не только уметь обрабатывать данные, но и добывать.
Поэтому последнюю неделю я плотно изучал курс по парсингу от Молчанова.
Чтобы не сохранять на компе 5 тыс страниц, собрал парочку для изучения их строения.
И пишу сейчас функции для сбора данных прям на ходу, и сохранения в БД (пока в цсв-шку, потом хочу в скулайт загружать)
Готовлю интересный кейс по аналитике на основе этих данных
Думаю выборки в 5235 единиц данных должно хватить для неплохого исследования.
Ведь для аналитики надо не только уметь обрабатывать данные, но и добывать.
Поэтому последнюю неделю я плотно изучал курс по парсингу от Молчанова.
Чтобы не сохранять на компе 5 тыс страниц, собрал парочку для изучения их строения.
И пишу сейчас функции для сбора данных прям на ходу, и сохранения в БД (пока в цсв-шку, потом хочу в скулайт загружать)
Готовлю интересный кейс по аналитике на основе этих данных
Думаю выборки в 5235 единиц данных должно хватить для неплохого исследования.
Forwarded from Вадим Курило
Написали бота, куда можно ввести слово, а на выходе получить график из Google Trends. Бот бесплатный, прошу только подписку на канал. Так как вы уже подписаны, то от вас ничего не нужно) Пользуйтесь @G_trendsBot
Итак. Парсер работает отлично (см. выше).
Данные спарсил, в таблицу выгрузил.
Но это ещё не все данные)))
Пока я парсил только то, что выдаётся на главной странице сайта. По 50 проституток на странице, всего страниц 104 было.
Сегодня буду обогащать собранные данные, парсингом каждой отдельной страницы проститутки. Оттуда надо достать перечень допуслуг, рейтинг и отзывы. А также имя)))
А, ещё надо разделить данные внутри двух столбцов, а то у меня «технические характеристики» слипшиеся по две характеристики в одной ячейке (издержки ранних версий функции парсинга, надо докручивать), в первую очередь этим займусь.
И ещё, надо проверить, почему собралось 4900 строк данных, а не 5300. Где-то явно ошибка, которую я не обработал.
Ну и потом буду лоск наводить, в виде дикт.компрехеншенов и прочего.
Будет рок-н-ролльная аналитика на этой неделе😏По московским проституткам🔥
Данные спарсил, в таблицу выгрузил.
Но это ещё не все данные)))
Пока я парсил только то, что выдаётся на главной странице сайта. По 50 проституток на странице, всего страниц 104 было.
Сегодня буду обогащать собранные данные, парсингом каждой отдельной страницы проститутки. Оттуда надо достать перечень допуслуг, рейтинг и отзывы. А также имя)))
А, ещё надо разделить данные внутри двух столбцов, а то у меня «технические характеристики» слипшиеся по две характеристики в одной ячейке (издержки ранних версий функции парсинга, надо докручивать), в первую очередь этим займусь.
И ещё, надо проверить, почему собралось 4900 строк данных, а не 5300. Где-то явно ошибка, которую я не обработал.
Ну и потом буду лоск наводить, в виде дикт.компрехеншенов и прочего.
Будет рок-н-ролльная аналитика на этой неделе😏По московским проституткам🔥
Долго не писал, но были уважительные причины — я переезжал из одного города в другой. Вместе со всеми вещами, компом и т.д. Уйма времени ушло на выгрузку вещей из шкафов, сортировку (что на выброс, что оставить у родителей, что взять с собой), упаковку этого всего, отправку транспортной компанией, и т.д.
В общем, переехал, рабочее место теперь выглядит так (пикча)
По парсингу (эксперименты до переезда):
Парсинг опять стопорится в районе 100-120 спарсенной страницы.
Парсил через подключение прокси, с заменой прокси на каждом запросе, и дополнительно заменой хедера запроса, тоже на каждом запросе новый хедер.
Список прокси для подмены менялся каждые 3 запроса на страницу (каждые 10 минут).
Но всё равно парсинг блокируется.
Уточнил у коллеги, мне сказали, что всё равно есть риск засветиться, что ты с одного источника парсишь, даже если через прокси и замену хедеров работаешь.
Пока вижу решение только в парсинге через ТОР, когда изначальное подключение тоже меняется каждые Х минут.
Завтра продолжу парсинг.
В общем, переехал, рабочее место теперь выглядит так (пикча)
По парсингу (эксперименты до переезда):
Парсинг опять стопорится в районе 100-120 спарсенной страницы.
Парсил через подключение прокси, с заменой прокси на каждом запросе, и дополнительно заменой хедера запроса, тоже на каждом запросе новый хедер.
Список прокси для подмены менялся каждые 3 запроса на страницу (каждые 10 минут).
Но всё равно парсинг блокируется.
Уточнил у коллеги, мне сказали, что всё равно есть риск засветиться, что ты с одного источника парсишь, даже если через прокси и замену хедеров работаешь.
Пока вижу решение только в парсинге через ТОР, когда изначальное подключение тоже меняется каждые Х минут.
Завтра продолжу парсинг.
Forwarded from Вастрик
Штош, как обсуждали выше, сделали чатик публичным на всех. Теперь можно звать годных (но голодных без долора) ребят извне: https://t.me/indiehackers_club
👆🏻По следам новости🔥Добавляйтесь, https://t.me/indiehackers_club сделали этот чат открытым для всех. Там мы запускаем пет-проджекты, обсуждаем идеи стартапов, делимся опытом и зарабатываем на собственных проектах (не все, 27% участников стартуют свои пет-проекты, остальные ищут идеи или тестируют ещё) и платим нологи.
Если не в курсе, чо за чат такой и вообще → наша секта → https://vas3k.club/, основатель → https://vas3k.ru. Внутри секты стопка чатов тематических. Вот это чатик про вайтишные и не очень проекты.
Админю я.
Дружно, не душно, короч збс.
Если не в курсе, чо за чат такой и вообще → наша секта → https://vas3k.club/, основатель → https://vas3k.ru. Внутри секты стопка чатов тематических. Вот это чатик про вайтишные и не очень проекты.
Админю я.
Дружно, не душно, короч збс.
УРААА!!! НАКОНЕЦ-ТО!!!
В Python 3.10 завезли аналог «switch-case»!!!
В Python 3.10 завезли аналог «switch-case»!!!
def http_error(status):
match status:
case 400:
return "Bad Request"
case 404:
return "Not Found"
case _:
return "Что-то не то"