В идеальной картине мира ваш сайт должен иметь посадочную страницу под каждый аспект спроса клиентов. По-русски: по лендингу на каждый запрос.
🔥1
Публикуйте в LinkedIn чаще и охват будет шире.
Больше сообщений = больше возможностей, согласно алгоритмическому усилению.
По данным Баффера:
Публикация от 2 до 5 публикаций в неделю в приложении увеличит количество показов вашей публикации примерно на 1000 за обновление.
Публикация от 6 до 10 постов в неделю на LinkedIn увеличит количество показов ваших постов на 5 тыс. за обновление.
Публикация более 11 постов в неделю даст вам более 16 тыс. дополнительных показов на пост.
Больше сообщений = больше возможностей, согласно алгоритмическому усилению.
По данным Баффера:
Публикация от 2 до 5 публикаций в неделю в приложении увеличит количество показов вашей публикации примерно на 1000 за обновление.
Публикация от 6 до 10 постов в неделю на LinkedIn увеличит количество показов ваших постов на 5 тыс. за обновление.
Публикация более 11 постов в неделю даст вам более 16 тыс. дополнительных показов на пост.
🔥3
КАК НАЙТИ 404-ОШИБКИ НА САЙТЕ
Когда серьёзно занимаешься контентом на сайте, возникают 404-е ошибки. Поганка, которая не нравится юзерам и Гуглу с Яндексом. От этих ошибок нужно избавляться. Когда сайт большой (сайт качают SEO-страницами или просто много страниц), руками все ссылки не прокликаешь.
Поставьте Screaming Frog SEO Spider. Он найдёт все 404 и укажет где на них ссылки по сайту.
Когда серьёзно занимаешься контентом на сайте, возникают 404-е ошибки. Поганка, которая не нравится юзерам и Гуглу с Яндексом. От этих ошибок нужно избавляться. Когда сайт большой (сайт качают SEO-страницами или просто много страниц), руками все ссылки не прокликаешь.
Поставьте Screaming Frog SEO Spider. Он найдёт все 404 и укажет где на них ссылки по сайту.
ВНУТРИ OPEN AI ОБСУЖДАЮТ КАК ПРЕВРАТИТЬ CHATGPT В ОПЕРАЦИОННУЮ СИСТЕМУ
Проблема лидеров рынка в том, что пока чего бы ни касалась Open AI, это начинает колоситься и приносить деньги. Попутно убивая былых лидеров.
И вот Альтман и компания замахнулись на супер-лидеров. Хотят запилить операционную систему, в которой будет много разных приложений. Лидеры рынка тут Microsoft c Windows, Google с Android и Apple с MacOS/iOS.
Пока речь идёт об ОС внутри собственного браузера. Это не полноценная операционка, которую ставят на PC. А браузерная экосистема. Разумеется, есть проблемы с продвижением. Но вы знаете как это работает)))
Проблема лидеров рынка в том, что пока чего бы ни касалась Open AI, это начинает колоситься и приносить деньги. Попутно убивая былых лидеров.
И вот Альтман и компания замахнулись на супер-лидеров. Хотят запилить операционную систему, в которой будет много разных приложений. Лидеры рынка тут Microsoft c Windows, Google с Android и Apple с MacOS/iOS.
Пока речь идёт об ОС внутри собственного браузера. Это не полноценная операционка, которую ставят на PC. А браузерная экосистема. Разумеется, есть проблемы с продвижением. Но вы знаете как это работает)))
😱1
Affinity — мощный аналог Adobe Photoshop для профессионального дизайна, который был в прошлом году выкуплен компанией Canva.
Отличная новость для инди-разработчиков и геймдев-студий, кому Adobe дорого или избыточно.
Раньше Affinity состоял из трёх отдельных программ: Designer для векторной графики, Photo для, соответственно, фото и Publisher для вёрстки. Теперь это всё один продукт с несколькими режимами.
Каждую из программ раньше можно было купить по-отдельности одним платежом навсегда, что выгодно отличало их от Adobe. Позже появился формат подписок, но он не заменял возможность разовой покупки. Но теперь это стало и вовсе бесплатно. Платными остались только AI-функции
Отличная новость для инди-разработчиков и геймдев-студий, кому Adobe дорого или избыточно.
Раньше Affinity состоял из трёх отдельных программ: Designer для векторной графики, Photo для, соответственно, фото и Publisher для вёрстки. Теперь это всё один продукт с несколькими режимами.
Каждую из программ раньше можно было купить по-отдельности одним платежом навсегда, что выгодно отличало их от Adobe. Позже появился формат подписок, но он не заменял возможность разовой покупки. Но теперь это стало и вовсе бесплатно. Платными остались только AI-функции
Affinity
Affinity | Professional Creative Software, Free for Everyone
Powerful, precise, and free forever. Discover Affinity — the next generation of professional photo, design, and layout software built for creative freedom.
🔥1
ЧТО ПОМОГАЕТ СВЕТИТЬСЯ В AI-ОТВЕТАХ ПОИСКА
Контент на сайте должен "нравиться" ИИ:
1. Фокусируйте ответ на намерениях пользователя — чётко отвечайте на вопрос "что человек хочет?"
2. Прямо сравнивайте себя с конкурентами — не "мы лучшие", а "в отличие от аналогов, у нас есть X"
3. Приводите социальные доказательства — отзывы, рейтинги, награды
4. Пишите в уверенном, авторитетном тоне — не рекламируйте
5. Выделите уникальные преимущества — чем вы конкретно отличаетесь
6. Используйте простую структура для сканирования — списки, заголовки
7. Ссылайтесь на проверенные факты
Контент на сайте должен "нравиться" ИИ:
1. Фокусируйте ответ на намерениях пользователя — чётко отвечайте на вопрос "что человек хочет?"
2. Прямо сравнивайте себя с конкурентами — не "мы лучшие", а "в отличие от аналогов, у нас есть X"
3. Приводите социальные доказательства — отзывы, рейтинги, награды
4. Пишите в уверенном, авторитетном тоне — не рекламируйте
5. Выделите уникальные преимущества — чем вы конкретно отличаетесь
6. Используйте простую структура для сканирования — списки, заголовки
7. Ссылайтесь на проверенные факты
👍2
Google призвала создателей сайтов не оптимизировать контент под ИИ-поиск
Несмотря на то, что фрагментированный контент, который подаётся на сайтах небольшими порциями, часто выдаётся в рекомендациях при ИИ-поиске, Google настаивает, что в долгосрочной перспективе изготовление такого контента не приведёт для создателей сайтов ни к чему хорошему.
Владельцам веб-ресурсов не следует разбивать материалы на небольшие порции только по той причине, что этот формат считается предпочтительным для больших языковых моделей вообще и ИИ-режима в поиске Google в частности. Об этом заявил бывший специалист Google по вопросам поисковой оптимизации Дэнни Салливан (Danny Sullivan); он также отметил, что обсуждал этот вопрос с инженерами Google, и те подчеркнули, что создавать контент специально для больших языковых моделей и вообще для поисковых машин не следует.
Эксперт, впрочем, признал, что в отдельных случаях это работает, но в качестве долгосрочной такая стратегия ему представляется бесперспективной. «Давайте предположим, что в некоторых крайних случаях, давайте даже предположим, что, возможно, в нескольких крайних случаях вы получите здесь какое-то преимущество», — допустил он. Этот успех окажется лишь временным: владелец сайта будет редактировать или создавать новый фрагментированный контент в этом формате, считая, что он работает для ИИ, но затем системы поискового ранжирования по мере совершенствования будут продолжать двигаться в сторону поощрения контента, созданного для людей, и фрагментированный формат материалов лишится эффективности.
Ретроспективный анализ стратегий поискового продвижения за несколько лет так или иначе сводится к тому, что материалы на сайте должны быть ориентированы на живых пользователей, отмечает Search Engine Land. Эта стратегия играет на создание аудитории, которая не будет зависеть ни от Google, ни от любых других систем ИИ. А фрагментированный контент, в свою очередь, может навредить репутации ресурса у людей — и краткосрочная выгода такого риска не стоит.
Несмотря на то, что фрагментированный контент, который подаётся на сайтах небольшими порциями, часто выдаётся в рекомендациях при ИИ-поиске, Google настаивает, что в долгосрочной перспективе изготовление такого контента не приведёт для создателей сайтов ни к чему хорошему.
Владельцам веб-ресурсов не следует разбивать материалы на небольшие порции только по той причине, что этот формат считается предпочтительным для больших языковых моделей вообще и ИИ-режима в поиске Google в частности. Об этом заявил бывший специалист Google по вопросам поисковой оптимизации Дэнни Салливан (Danny Sullivan); он также отметил, что обсуждал этот вопрос с инженерами Google, и те подчеркнули, что создавать контент специально для больших языковых моделей и вообще для поисковых машин не следует.
Эксперт, впрочем, признал, что в отдельных случаях это работает, но в качестве долгосрочной такая стратегия ему представляется бесперспективной. «Давайте предположим, что в некоторых крайних случаях, давайте даже предположим, что, возможно, в нескольких крайних случаях вы получите здесь какое-то преимущество», — допустил он. Этот успех окажется лишь временным: владелец сайта будет редактировать или создавать новый фрагментированный контент в этом формате, считая, что он работает для ИИ, но затем системы поискового ранжирования по мере совершенствования будут продолжать двигаться в сторону поощрения контента, созданного для людей, и фрагментированный формат материалов лишится эффективности.
Ретроспективный анализ стратегий поискового продвижения за несколько лет так или иначе сводится к тому, что материалы на сайте должны быть ориентированы на живых пользователей, отмечает Search Engine Land. Эта стратегия играет на создание аудитории, которая не будет зависеть ни от Google, ни от любых других систем ИИ. А фрагментированный контент, в свою очередь, может навредить репутации ресурса у людей — и краткосрочная выгода такого риска не стоит.
Search Engine Land
Google doesn’t want you to create bite-sized chunks of your content
Despite what you think works well for LLM and AI Search mentions, Google said this is not a long-term strategy.
❤2
АНГЛИЙСКИЙ ЯЗЫК В ПРОМПТАХ ВЫГОДНЕЕ ПОЧТИ В 2 РАЗА!
• 1000 токенов ≈ 700–750 слов на английском;
• 1000 токенов ≈ 350–400 слов на русском.
Эта оценка взята не из головы, если что, а из двух источников:
Данные из исследования Nvidia показывают, что 1 токен ≈ 0.75 английского слова. Тесты в токенизаторе показали, что в 1000 токенах содержится примерно 400 слов на русском. Проверить можете сами по этой ссылке.
• 1000 токенов ≈ 700–750 слов на английском;
• 1000 токенов ≈ 350–400 слов на русском.
Эта оценка взята не из головы, если что, а из двух источников:
Данные из исследования Nvidia показывают, что 1 токен ≈ 0.75 английского слова. Тесты в токенизаторе показали, что в 1000 токенах содержится примерно 400 слов на русском. Проверить можете сами по этой ссылке.
🔥1
"И все-таки ЛЛМы - 'умные', и их поведение гораздо сложнее, чем простой подбор слов", - утверждают авторы нового исследования "The unreasonable effectiveness of pattern matching". И к ним, возможно, стоит прислушаться - как-никак, эксперимент получился интересный.
Ученые убрали почти все осмысленные слова из текста, заменив их на вымышленные и бессмысленные конструкции, но модель все равно смогла догадаться о том, что происходит в предложении.
По итогам длительных экспериментов выяснилось, что ЛЛМы опираются не на конкретные слова, а на:
- структуру фразы
- роли слов в предложении
- типичные языковые паттерны
- контекст и вероятностные сценарии
Все это свидетельствует о том, что паттерн-матчинг - это не слабость, а основа интеллекта языковых моделей, способность сопоставлять структуры , а не просто запоминать тексты.
Но не спешите делать ошибочные выводы, что ИИ мыслит как люди. Это в корне неверно, просто теперь называть их работу "простым копированием" - уже некорректно, ибо показанное поведение происходит из эффективного, масштабного и гибкого сопоставления языковых паттернов.
В общем, в очередной раз выясняется, что ЛЛМ для нас - черный ящик, и мы, создав их, вообще слабо представляем как оно внутри функционирует.
Продолжаем тыкать их палками и смотреть на результат, выявляя закономерности и удивляясь поведению! 🫠
Ученые убрали почти все осмысленные слова из текста, заменив их на вымышленные и бессмысленные конструкции, но модель все равно смогла догадаться о том, что происходит в предложении.
По итогам длительных экспериментов выяснилось, что ЛЛМы опираются не на конкретные слова, а на:
- структуру фразы
- роли слов в предложении
- типичные языковые паттерны
- контекст и вероятностные сценарии
Все это свидетельствует о том, что паттерн-матчинг - это не слабость, а основа интеллекта языковых моделей, способность сопоставлять структуры , а не просто запоминать тексты.
Но не спешите делать ошибочные выводы, что ИИ мыслит как люди. Это в корне неверно, просто теперь называть их работу "простым копированием" - уже некорректно, ибо показанное поведение происходит из эффективного, масштабного и гибкого сопоставления языковых паттернов.
В общем, в очередной раз выясняется, что ЛЛМ для нас - черный ящик, и мы, создав их, вообще слабо представляем как оно внутри функционирует.
Продолжаем тыкать их палками и смотреть на результат, выявляя закономерности и удивляясь поведению! 🫠
Что ждёт большинство топ-менеджеров и senior менеджеров в ближайшие 2-3 года?
Если относительно недавно я видел один единственный сценарий (как Доктор Стрэндж в войне бесконечности), где нужно, не без удачи и фактора рандома, выдавать на ежедневной основе мощный performance и очень быстрый execution с 70-80 часовой рабочей неделю, то сейчас приоткрылся и другой сценарий.
Конкурентным преимуществом в таком случае должна стать насмотренность и твёрдые навыки по усилению бизнес-процессов через ИИ. Мы должны будем, я бы сказал обязаны (иначе зачем ты нужен), усиливать команду конкретными usecase по внедрению различных нейронок в воронки.
И главное тут не просто рассказать про возможности, скинуть ссылку и оплатить подписку, а руками, на практике, не через «старые кейсы», а под данный отдел/группу/компанию самостоятельно сделать продукт, которые в разы облегчит работу и повысит эффективность. И уже дальше передать эти знания команде, чтобы она это на регулярной основе уже самостоятельно реализовывала.
Руководители должны стать AI-экспертами в своей профессии, у линейного персонала чаще не будет хватать ни сил, ни ресурсов, ни знаний, ни насмотренности для того, чтобы находить и постоянно внедрять новые фичи. Мы должны стать первопроходцами, новатарами, которые будут, как ни странно и грустно это звучало, тащить компанию на себе в это части.
Если относительно недавно я видел один единственный сценарий (как Доктор Стрэндж в войне бесконечности), где нужно, не без удачи и фактора рандома, выдавать на ежедневной основе мощный performance и очень быстрый execution с 70-80 часовой рабочей неделю, то сейчас приоткрылся и другой сценарий.
Конкурентным преимуществом в таком случае должна стать насмотренность и твёрдые навыки по усилению бизнес-процессов через ИИ. Мы должны будем, я бы сказал обязаны (иначе зачем ты нужен), усиливать команду конкретными usecase по внедрению различных нейронок в воронки.
И главное тут не просто рассказать про возможности, скинуть ссылку и оплатить подписку, а руками, на практике, не через «старые кейсы», а под данный отдел/группу/компанию самостоятельно сделать продукт, которые в разы облегчит работу и повысит эффективность. И уже дальше передать эти знания команде, чтобы она это на регулярной основе уже самостоятельно реализовывала.
Руководители должны стать AI-экспертами в своей профессии, у линейного персонала чаще не будет хватать ни сил, ни ресурсов, ни знаний, ни насмотренности для того, чтобы находить и постоянно внедрять новые фичи. Мы должны стать первопроходцами, новатарами, которые будут, как ни странно и грустно это звучало, тащить компанию на себе в это части.
❤2
ПОЧЕМУ СТАТИЧЕСКИЕ САЙТЫ ВОЗВРАЩАЮТСЯ И ЧЕМУ ОНИ НАУЧИЛИСЬ
Раньше статический сайт был сайтом-визиткой на голом HTML, а любой серьёзный проект требовал CMS. Нормальным сайтом считали сайт на WordPress или «Битриксе». Статика оставалась уделом гиков, документации и страниц о скором запуске. В 2025 году статические сайты вернулись. Как зрелая архитектура, которая решает 90% задач быстрее, дешевле и безопаснее, чем тяжёлый бэкенд.
Что такое статический сайт и чем он отличается от динамического
Разница — в моменте сборки. Динамический сайт собирает страницу в момент запроса. Пришёл пользователь — бэкенд сходил в базу, натянул данные на шаблон, отдал HTML. Статический сайт собирает страницу до запроса. Один раз, на этапе билда. На выходе — папка с готовыми HTML-файлами.
Почему статика ушла в тень и что изменилось
Статика проигрывала динамике по причинам:
• первая: CMS давали удобную админку. Зашёл, написал пост, сохранил. Бизнесу не нужен Git, а визуальный редактор.
• вторая: статика требовала пересборки всего сайта при правке одной запятой. Десять тысяч страниц = десять минут ожидания.
• третья: формы, комментарии, поиск: на статике приходилось писать велосипеды или обходиться без них.
Три сдвига, которые многие пропустили.
• Инфраструктура. Появились Netlify, Vercel, Cloudflare Pages. Билд, хостинг, SSL, инвалидация кеша за ноль рублей и пять минут настройки.
• Архитектура. Jamstack объяснил: статика не равна мёртвому сайту. Бэкенд не исчезает — он выносится в микросервисы и API.
Типовой WordPress-сайт на десять статей в год тянет PHP, MySQL, Apache, кеширование, плагины безопасности и еженедельные обновления. Это рабочее решение, но задаёшься вопросом: не слишком ли тяжёлая артиллерия для такой задачи?
Когда статический подход неэффективен
Статика не подойдёт, если:
• Контент меняется каждую минуту (биржи, котировки, соцсети).
• Контент массово создают сами пользователи.
Так как для данных случаев нужны постоянные пересборки страниц, чтобы данные оставались актуальными для поисковых систем. Но важно другое: коробка допустимых сценариев за пять лет расширилась в разы. То, что раньше требовало самописного бэкенда, сегодня собирается из коробки фреймворка для бэкенда.
Чему научилась статика
1. Дружить с динамикой
Раньше выбор был бинарным: либо полностью динамический сайт, либо полностью статический. Сейчас это не выбор, а композиция.
• Комментарии? Disqus, Isso или GitHub Issues как бэкенд.
• Формы? Netlify Forms, Formspree, самописная лямбда.
• Поиск? Lunr.js, Algolia, Pagefind.
• Аутентификация? Auth0, Supabase, Firebase.
Пользователь видит интерфейс, кликает, отправляет данные и не догадывается, что серверной части у сайта нет. Потому что она аккуратно вынесена в API. Статика перестала означать «мёртвый сайт».
2. Обновляться мгновенно
Главная боль статики десятилетней давности: поправил опечатку = запустил полную пересборку. 10 тысяч страниц, 5–10 минут ожидания, сброс кеша CDN, ещё пара минут на инвалидацию. Сейчас эту проблему решили инкрементальной сборкой. Пересобирается только изменившаяся страница.
3. Не требовать отдельной команды поддержки
Динамический сайт — это не только разработка, но и эксплуатация.
WordPress тянет за собой шлейф обязательств:
• Обновлять ядро;
• Обновлять плагины;
• Чистить последствия взломов;
• Платить за хостинг с поддержкой PHP.
Статика — это папка с HTML-файлами на CDN или хостинге.
Не потому что статический сайт невозможно взломать. Возможно, например, получить доступ к репозиторию, но масштаб ущерба принципиально иной. Нет админки = нет брутфорса. Нет базы данных = нет SQL-инъекций. Нет исполняемого кода на сервере — нет удалённого выполнения команд. Безопасность на статике — не энтерпрайз-уровень с SIEM и пентестами. Она просто перестаёт быть задачей, которую нужно решать отдельно.
источник
Раньше статический сайт был сайтом-визиткой на голом HTML, а любой серьёзный проект требовал CMS. Нормальным сайтом считали сайт на WordPress или «Битриксе». Статика оставалась уделом гиков, документации и страниц о скором запуске. В 2025 году статические сайты вернулись. Как зрелая архитектура, которая решает 90% задач быстрее, дешевле и безопаснее, чем тяжёлый бэкенд.
Что такое статический сайт и чем он отличается от динамического
Разница — в моменте сборки. Динамический сайт собирает страницу в момент запроса. Пришёл пользователь — бэкенд сходил в базу, натянул данные на шаблон, отдал HTML. Статический сайт собирает страницу до запроса. Один раз, на этапе билда. На выходе — папка с готовыми HTML-файлами.
Почему статика ушла в тень и что изменилось
Статика проигрывала динамике по причинам:
• первая: CMS давали удобную админку. Зашёл, написал пост, сохранил. Бизнесу не нужен Git, а визуальный редактор.
• вторая: статика требовала пересборки всего сайта при правке одной запятой. Десять тысяч страниц = десять минут ожидания.
• третья: формы, комментарии, поиск: на статике приходилось писать велосипеды или обходиться без них.
Три сдвига, которые многие пропустили.
• Инфраструктура. Появились Netlify, Vercel, Cloudflare Pages. Билд, хостинг, SSL, инвалидация кеша за ноль рублей и пять минут настройки.
• Архитектура. Jamstack объяснил: статика не равна мёртвому сайту. Бэкенд не исчезает — он выносится в микросервисы и API.
Типовой WordPress-сайт на десять статей в год тянет PHP, MySQL, Apache, кеширование, плагины безопасности и еженедельные обновления. Это рабочее решение, но задаёшься вопросом: не слишком ли тяжёлая артиллерия для такой задачи?
Когда статический подход неэффективен
Статика не подойдёт, если:
• Контент меняется каждую минуту (биржи, котировки, соцсети).
• Контент массово создают сами пользователи.
Так как для данных случаев нужны постоянные пересборки страниц, чтобы данные оставались актуальными для поисковых систем. Но важно другое: коробка допустимых сценариев за пять лет расширилась в разы. То, что раньше требовало самописного бэкенда, сегодня собирается из коробки фреймворка для бэкенда.
Чему научилась статика
1. Дружить с динамикой
Раньше выбор был бинарным: либо полностью динамический сайт, либо полностью статический. Сейчас это не выбор, а композиция.
• Комментарии? Disqus, Isso или GitHub Issues как бэкенд.
• Формы? Netlify Forms, Formspree, самописная лямбда.
• Поиск? Lunr.js, Algolia, Pagefind.
• Аутентификация? Auth0, Supabase, Firebase.
Пользователь видит интерфейс, кликает, отправляет данные и не догадывается, что серверной части у сайта нет. Потому что она аккуратно вынесена в API. Статика перестала означать «мёртвый сайт».
2. Обновляться мгновенно
Главная боль статики десятилетней давности: поправил опечатку = запустил полную пересборку. 10 тысяч страниц, 5–10 минут ожидания, сброс кеша CDN, ещё пара минут на инвалидацию. Сейчас эту проблему решили инкрементальной сборкой. Пересобирается только изменившаяся страница.
3. Не требовать отдельной команды поддержки
Динамический сайт — это не только разработка, но и эксплуатация.
WordPress тянет за собой шлейф обязательств:
• Обновлять ядро;
• Обновлять плагины;
• Чистить последствия взломов;
• Платить за хостинг с поддержкой PHP.
Статика — это папка с HTML-файлами на CDN или хостинге.
Не потому что статический сайт невозможно взломать. Возможно, например, получить доступ к репозиторию, но масштаб ущерба принципиально иной. Нет админки = нет брутфорса. Нет базы данных = нет SQL-инъекций. Нет исполняемого кода на сервере — нет удалённого выполнения команд. Безопасность на статике — не энтерпрайз-уровень с SIEM и пентестами. Она просто перестаёт быть задачей, которую нужно решать отдельно.
источник
👍3