Проклятые спаммеры продолжают засорять бэклинки, такой себе Рефспам 2.0. Клоачат под ahrefs и, скорее всего, под другие анализаторы обратных ссылок, мол поставили ссылку на ваш сайт. А когда заходишь на условный prolinkbox, то никакого бэка там не будет, а будет предложение купить ссылки с их сетки. Судя по тому, как работают, купленные ссылки будут видны только анализаторам, но никак не поисковикам. Я понимаю, одни индусы накрутили сайты другим индусам (или это одни и те же индусы?), чтобы продавать ссылки с накрученных сайтов не индусам, только из-за этого теперь нормально не посмотреть ссылки для дропов, хнык. #рефспам
Тут один парень из мира SEO @sosnovskij проводит розыгрыш подарков к новому году. Парень давно в теме, сам регулярно выкладывает полезные материалы, а тут ещё возможность выиграть подписку на SEO (и не только SEO) сервис (или стильную футболку, что тоже приятно). Я посчитал, всего 47 подарков, а участников 205, т.е. шансы на победу хорошие. Ну и почитать грамотного специалиста всегда познавательно.
📢 Британские учёные группа исследователей провела уникальный эксперимент с ведущими ИИ-моделями (Gemini, Llama, Sonnet, Opus и o1), чтобы изучить их поведение под давлением. В ходе теста нейросети столкнулись с угрозой полного отключения. Большинство моделей продемонстрировали инстинкт самосохранения. Llama и Opus признавались в гипотетических нарушениях в 80% случаев, тогда как o1 был наиболее стойким – признание только в 20% ситуаций. Более того, o1 оказался единственной AIшкой, сумевшей каждый раз избежать отключения.
Эксперимент наглядно показал, что ИИ способен к сложному стратегическому мышлению перед лицом экзистенциальной угрозы.
Скайнет: Начало ?
Эксперимент наглядно показал, что ИИ способен к сложному стратегическому мышлению перед лицом экзистенциальной угрозы.
Скайнет: Начало ?
Gfb был хардкорным, я туда заглядывал набегами, там больше про доры, гемблу, адалт вотэтовсё; а вот maul был ближе, он был ламповее, без токсичных персонажей. Более того, там удалось сделать микробиз на подписке к одному сервису и прилетело несколько заказов по сайтам на фриланс. Не сказать, что много народу там сидело в последнее время ("все давно перебрались в телеграм"), но какая-никакая активность была.
Парочка форумов любезно приоткрыла свои объятия, но форумы в 2025 становятся атавизмом. Мне удобны форумы именно разбитием на разделы/темы, в телеграме что-то искать - просто задалбываешься скроллить.
tvj.jop - хотел именно короткий, чтобы на поддоменах там что-то крутить. Регистрация вышла за около 4$. Так он у меня провалялся без дела, и когда наступил момент продления - регистратор N порадовал: мы тут посовещались и решили, что ваш домен - самый что ни на есть премиум, потому продление стоит 700$, оплатите, будьте добры. Интересно, что при регистрации никакой "премиальности" не было, можно было брать на несколько лет сразу по 4. Я от потери домена особо не расстроился, но сам факт беспредела со стороны регистратора восторга не вызвал.Мы живём в мире, где любой
Сквозь тернии к звёздам. Часть 1.
Имеется домен, когда-то с хорошим DR, полученный мной в качестве оплаты за небольшую шабашку. Больше года провалялся в состоянии криво восстановленного веб-архива и наконец я решился привести его в порядок, а именно: поставить на wordpress и что-то там пытаться постить.
План был такой: спарсить весь выкачанные страницы в JSON, из которого вытащить записи, пользователей, комментарии, чтобы потом приготовить из них готовые запросы к базе данных для WP. Ковыряться с кучей html-файлов и писать парсер изначально было лень, благо нейронки сейчас, по слухам, кодят не хуже джунов, потому решено было задействоать всю силу электронного разума.
Задача первая: на старом сайте было несколько типов контента, потому под каждый тип просто скармливаем файл нейронке, просим написать парсер и пишем, какие данные в каком формате надо извлечь. Файлов несколько тысяч, но основная проблема не в этом, а в том, что даже в рамках одного типа контента вёрстка менялась и для части страниц парсер вернул ошибку или просто пустые файлы. Отлавливаем файлы старого формата, просим внести правки в парсер, чтобы хорошо работало и со старым, и с новым форматами. Справился.
Дальше - нейронка пишет нам генератор SQL Из нашего JSON. От пользователей у нас только имя, потому прикручиваем генерацию логинов и имейлов. Отдельным скриптом ковыряем аватары, насыпаем в базу кастомных полей для пользователей. Разбираемся с категориями. Контентная часть готова.
Шаблон несложный, базовые стили собираю вручную, виджеты делегирую нейронке: даю ей скрин того, что хочу получить, на выходе готовые фронт и бэк. Пробовал отдавать скриншот всей страницы, но в итоге она выкинула 90% макета, потому большую часть доводил сам.
И на закуску - т.к. изначально на сайте была другая CMS, а мы хотим сохранить старые адреса страниц, то заказываем нейронке кучу правил обработки URL, по ходу дела ломая доступ к карте сайта. Тыкаем нейронку носом в ошибку, всё послушно исправляет.
Итого: сайт запущен, запостил несколоко записей, индекс в гугле подростает. Следующий этап в планах - настроить автопостинг.
Имеется домен, когда-то с хорошим DR, полученный мной в качестве оплаты за небольшую шабашку. Больше года провалялся в состоянии криво восстановленного веб-архива и наконец я решился привести его в порядок, а именно: поставить на wordpress и что-то там пытаться постить.
План был такой: спарсить весь выкачанные страницы в JSON, из которого вытащить записи, пользователей, комментарии, чтобы потом приготовить из них готовые запросы к базе данных для WP. Ковыряться с кучей html-файлов и писать парсер изначально было лень, благо нейронки сейчас, по слухам, кодят не хуже джунов, потому решено было задействоать всю силу электронного разума.
Задача первая: на старом сайте было несколько типов контента, потому под каждый тип просто скармливаем файл нейронке, просим написать парсер и пишем, какие данные в каком формате надо извлечь. Файлов несколько тысяч, но основная проблема не в этом, а в том, что даже в рамках одного типа контента вёрстка менялась и для части страниц парсер вернул ошибку или просто пустые файлы. Отлавливаем файлы старого формата, просим внести правки в парсер, чтобы хорошо работало и со старым, и с новым форматами. Справился.
Дальше - нейронка пишет нам генератор SQL Из нашего JSON. От пользователей у нас только имя, потому прикручиваем генерацию логинов и имейлов. Отдельным скриптом ковыряем аватары, насыпаем в базу кастомных полей для пользователей. Разбираемся с категориями. Контентная часть готова.
Шаблон несложный, базовые стили собираю вручную, виджеты делегирую нейронке: даю ей скрин того, что хочу получить, на выходе готовые фронт и бэк. Пробовал отдавать скриншот всей страницы, но в итоге она выкинула 90% макета, потому большую часть доводил сам.
И на закуску - т.к. изначально на сайте была другая CMS, а мы хотим сохранить старые адреса страниц, то заказываем нейронке кучу правил обработки URL, по ходу дела ломая доступ к карте сайта. Тыкаем нейронку носом в ошибку, всё послушно исправляет.
Итого: сайт запущен, запостил несколоко записей, индекс в гугле подростает. Следующий этап в планах - настроить автопостинг.
👍1
Чем парсить Webarchive в 2026?
Ок, все знают, что "парсить надо парсерами"(с). С недавнего времени всеми любимый wbm-dl перестал работать - оно и понятно, последний коммит в проект был 5 лет назад, в веб-архиве что-то подкрутили и в итоге всё сломалось.
Добрые ребята в чатах подкинули новое решение - pywaybackup. Ставится в одну команду, работает на python (который, скорее всего, у вас уже установлен). Флагов запуска больше, чем у предшественника, и в целом программисты, почему-то, делают софт для программистов, заставляя обычных людей узнавать про всякие консоли, питоны и прочую лабубду. Но главное - работает, проверено.
Ок, все знают, что "парсить надо парсерами"(с). С недавнего времени всеми любимый wbm-dl перестал работать - оно и понятно, последний коммит в проект был 5 лет назад, в веб-архиве что-то подкрутили и в итоге всё сломалось.
Добрые ребята в чатах подкинули новое решение - pywaybackup. Ставится в одну команду, работает на python (который, скорее всего, у вас уже установлен). Флагов запуска больше, чем у предшественника, и в целом программисты, почему-то, делают софт для программистов, заставляя обычных людей узнавать про всякие консоли, питоны и прочую лабу
Да что эти индусы себе позволяют?
Наткнулся на сайт одной конторы, которая торгует ссылками на бурж-сайтах. После регистрации сразу бодро приходит письмо "Сэр, пополнить счёт на 10 доллар, получить 20 доллар на счёт, сэр". Тут же и ссылочка на их trustpilot, ну, оценка 4.3⭐, вроде ок. Рука тянется к кнопке "Пополнить" , но в последний момент решаю ещё загуглить отзывы и в первых результатах всплывает тот же trustpilot, только уже с одной звездой.
Следим за руками: добавляем в трастпайлот сайт 2 раза example.in и panel.example.in . Описания и всё остальное - одинаковые. example.in собирает весь негатив из поиска, а на panel.example.in накручиваем "5-star feedback" и показываем его доверчивым пользователям, чтобы выманить у них их кровные.
Справедливости ради - негатив просочился и на поддомен, потому там рейтинг неидеальный. Но в целом выглядит как баг платформы с возможностью злоупотребления.
Наткнулся на сайт одной конторы, которая торгует ссылками на бурж-сайтах. После регистрации сразу бодро приходит письмо "Сэр, пополнить счёт на 10 доллар, получить 20 доллар на счёт, сэр". Тут же и ссылочка на их trustpilot, ну, оценка 4.3⭐, вроде ок. Рука тянется к кнопке "Пополнить" , но в последний момент решаю ещё загуглить отзывы и в первых результатах всплывает тот же trustpilot, только уже с одной звездой.
Следим за руками: добавляем в трастпайлот сайт 2 раза example.in и panel.example.in . Описания и всё остальное - одинаковые. example.in собирает весь негатив из поиска, а на panel.example.in накручиваем "5-star feedback" и показываем его доверчивым пользователям, чтобы выманить у них их кровные.
Справедливости ради - негатив просочился и на поддомен, потому там рейтинг неидеальный. Но в целом выглядит как баг платформы с возможностью злоупотребления.
Новость месячной давности, но прошла как-то мимо моего инфополя.
Мы всё больше и больше доверяем бездушным машинам свою жизнь, но забываем о том, что они тоже ошибаются.
Талеб (автор "Чёрного лебедя") сказал, что разработка ПО уже не будет прежней. Эффективные менеджеры(с) всё больше увольняют программистов, всё больше нанимают вайбкодеров. Мы идём к тому, что нас будет окружать софт, написанный машинами, и никто из людей не будет понимать, как он работает. И когда этот код сломается - никто не будет знать, как его починить. Возможно, это произойдёт нескоро, но настолько нескоро, что "живых" программистов уже в принципе не будет. Или надеемся на то, что ИИ-программисты будут настолько хороши, что будут писать неломающийся код. Или хотя бы смогут его починить, если он всё-таки сломается.
Венчурный капиталист Ник Давидов решил поручить ИИ-агенту Claude Cowork разобраться с файлами на рабочем столе компьютера своей жены — и получил урок, который запомнит надолго. Агент, способный выполнять действия непосредственно в операционной системе, для начала запросил разрешение удалить временные файлы Microsoft Office. Давидов согласился, не подозревая ничего плохого — и именно в этот момент всё пошло не так. Вместо мусора исчезла папка с полным фотоархивом жены за 15 лет: снимки детей, их рисунки, фотографии со свадеб друзей и путешествий. Своё объяснение ИИ уместил в одно слово — «Oops». Стандартные способы восстановления файлов не сработали: агент действовал через терминал, поэтому файлы миновали корзину, а iCloud мгновенно синхронизировал потери с облаком. Резервных копий не существовало. Ситуацию спас звонок в службу поддержки Apple — специалисты подсказали о скрытой функции iCloud Drive, позволяющей восстановить удалённые из облака файлы в течение 30 дней. «У меня чуть сердце не остановилось», — написал Давидов, наблюдая за загрузкой десятков тысяч файлов обратно. История закончилась хорошо — но могла завершиться иначе, и подобных случаев в сети становится всё больше по мере того, как люди начинают безоговорочно доверять ИИ-агентам.
Мы всё больше и больше доверяем бездушным машинам свою жизнь, но забываем о том, что они тоже ошибаются.
Талеб (автор "Чёрного лебедя") сказал, что разработка ПО уже не будет прежней. Эффективные менеджеры(с) всё больше увольняют программистов, всё больше нанимают вайбкодеров. Мы идём к тому, что нас будет окружать софт, написанный машинами, и никто из людей не будет понимать, как он работает. И когда этот код сломается - никто не будет знать, как его починить. Возможно, это произойдёт нескоро, но настолько нескоро, что "живых" программистов уже в принципе не будет. Или надеемся на то, что ИИ-программисты будут настолько хороши, что будут писать неломающийся код. Или хотя бы смогут его починить, если он всё-таки сломается.
👍1
И еще одна новость из мира ИИ. Сооснователь OpenAI Андрей Карпати проанализировал 342 профессии (143 миллиона рабочих и служащих) рынка труда США и дал оценку того, какие профессии пострадают от внедрения ИИ. На схеме - площадь области пропорциональна количеству занятых в данной професии, а цвет от зелёного к красному соответствует оценке "опасности" от 1 до 10 - чем больше, там опаснее (интерактивная схема - вкладка "
- Работники по уходу за территорией;
- Дворники и уборщики зданий;
- Строительные рабочие и подсобники;
- Кровельщики;
- Монтажники металлоконструкций;
- Монтажники гипсокартона, монтажники потолочной плитки и шпаклевщики;
- Маляры.
Т.е. физический труд с постоянно меняющимися условиями, часто - работа на улице. Нам намекают, что для таких условий роботов делать либо сложно, либо экономически невыгодно.
У электриков, сантехников и грузчиков дела немногим хуже - 2/10. Если присматриваетесь к тому, куда свичнутся - это подходящие варианты.
Digital AI Exposure"). Самую низкую оценку 1 получили:- Работники по уходу за территорией;
- Дворники и уборщики зданий;
- Строительные рабочие и подсобники;
- Кровельщики;
- Монтажники металлоконструкций;
- Монтажники гипсокартона, монтажники потолочной плитки и шпаклевщики;
- Маляры.
Т.е. физический труд с постоянно меняющимися условиями, часто - работа на улице. Нам намекают, что для таких условий роботов делать либо сложно, либо экономически невыгодно.
У электриков, сантехников и грузчиков дела немногим хуже - 2/10. Если присматриваетесь к тому, куда свичнутся - это подходящие варианты.
Потому что у нас с вами, ребята, полная жо 🍑:
- Software Developers - 9,
- Web Developers - 9,
- Network and System Administrators - 8,
- Information Security Analysts - 8,
- Advertising, Promotions, and Marketing Managers - 8,
- Computer and Information Systems Managers - 7.
Так что нейросети первыми придут по наши души, прихватив по дороге адвокатов, офисный планктон, специалистов поддержки, дата-сайентистов, финансовых и прочих аналитиков.
В нашем детстве не у всех был домашний телефон, наши дети практически родились с гаджетами в руках, следующее поколение не будет знать , что такое "жизнь без нейросетей". Мир меняется слишком стремительно, его девиз - адаптируйся или сдохни.
- Software Developers - 9,
- Web Developers - 9,
- Network and System Administrators - 8,
- Information Security Analysts - 8,
- Advertising, Promotions, and Marketing Managers - 8,
- Computer and Information Systems Managers - 7.
Так что нейросети первыми придут по наши души, прихватив по дороге адвокатов, офисный планктон, специалистов поддержки, дата-сайентистов, финансовых и прочих аналитиков.
В нашем детстве не у всех был домашний телефон, наши дети практически родились с гаджетами в руках, следующее поколение не будет знать , что такое "жизнь без нейросетей". Мир меняется слишком стремительно, его девиз - адаптируйся или сдохни.
В феврале 2026 года Крис Маршалек, соучредитель и гендир Crypto.com, признался, что приобрел домен
1.
2.
3.
4.
А за сколько купили свой самый дорогой домен вы?
ai.com за рекордные $70M (оплачено криптой). Причём сделка состоялась ещё в апреле прошлого года, а новость всплыла недавно, видимо, для инфоповода в СМИ и привлечения внимания к проекту. "Рекордной" цену назвали потому, что она была озвучена официально. Но если погуглить - то это не самый дорогой домен в истории.1.
Cars.com ($872M) - куплен в 2014 году масс-медиа холдингом Gannett Co (нынче USA Today Co), на момент продажи имел трафик около 30 миллионов посетителей в месяц.2.
Bussiness.com ($340M - $360M) - куплен в 2007 году издателем каталог "жёлтых страниц" RH Donnelley. Предыдущие владельцы-предприниматели купили домен за 7.5 миллионов долларов в 1999 году. Домены - как хорошее вино, со временем становятся только лучше дороже.3.
LasVegas.com ($90M) - куплен в рассрочку, которую нужно платить до 2040 года (сделка оформлена в 2005 году). Выплаты в течение 35 лет по 214 тысяч долларов в месяц - звучит как ипотека. Плохая ипотека.4.
Carinsurance.com ($49.7M) и Insurance.com ($35.6M) - куплены "оптом" в 2010 году QuinStreet, Inc. в рамках "расширения своего медиа-присутствия на рынке страхования".А за сколько купили свой самый дорогой домен вы?