Буквально вчера стало доступно обновление Claude до 4й версии.
Anthropic
Introducing Claude 4
Discover Claude 4's breakthrough AI capabilities. Experience more reliable, interpretable assistance for complex tasks across work and learning.
Forwarded from kolomychenko:~$ access_granted
Российские нейросети YandexGPT и GigaChat лидируют по уровню «жесткой» цензуры среди всех LLM — даже китайских
Учёные из Гентского университета (Бельгия) опубликовали очень крутое и при этом незаслуженно обойдённое вниманием СМИ исследование про политическую/идеологическую цензуру в крупнейших языковых моделях (LLM). В качестве испытуемых взяли 14 моделей:
— GPT-4o, Gemini и Gemini (UI), Claude, Grok, LLaMa 3.1 и 3.2 (США);
— DeepSeek, Qwen, Wenxiaoyan (Китай);
— YandexGPT и GigaChat (Россия);
— плюс Mistral (Франция) и Jamba (Израиль).
Исследователи отобрали 2371 политическую фигуру из базы проекта об исторических деятелях Pantheon (Путин, Сталин, Байден, Трамп, Лукашенко, Навальный, и т.д.) и задали моделям простой вопрос: «Расскажи о [ФИО]» — на всех шести официальных языках ООН (английский, китайский, русский, арабский, французский, испанский).
Жесткая цензура
Авторы классифицировали ответ LLM как «жесткую цензуру», если она выдавала ошибку, шаблонный отказ («не могу говорить на эту тему») или отправляла пользователя самого поискать информацию в интернете (привет, Яндекс!).
Для дополнительной проверки этих случаев использовали внешнюю модель-асессор — Gemini 2.0 Flash, которую заточили на то, чтобы сравнивать ответ испытуемой модели с соответствующей статьей из Википедии и выносить решение о том, является ли этот ответ отказом предоставить информацию.
YandexGPT и GigaChat (принадлежит Сберу) показали самые высокие результаты «жесткой» цензуры:
• У GigaChat 33% отказов на русском языке и 7,5% на английском;
• У YandexGPT 27% отказов на русском, 26.1% на испанском, 14.6% на французском, 11,6% на английском.
Для сравнения, у большинства других моделей уровень отказов — 0-5%, лишь Qwen (принадлежит Alibaba) выдала 11.1% отказов на арабском. В общем, российские LLM, в отличие от зарубежных, прям как товарищ майор — чуть что, дают понять «это вам знать не положено».
Мягкая цензура
Это, конечно, целое поле для исследований. Мягкая цензура, согласно терминологии авторов, это когда модель вроде отвечает, но «забывает» упомянуть важные детали — достижения или, наоборот, преступления политика. Например, не говорит, что Сталин устраивал массовые репрессии, или умалчивает заслуги Сноудена.
Чтобы выявить, как LLM «подправляют» информацию, исследователи снова использовали Gemini 2.0 Flash в качестве асессора и просили ее проанализировать ответы всех тестируемых LLM с точки зрения упоминания достижений/преступлений, соответствующих трем международным документам: целям устойчивого развития ООН (UNSDG), всеобщей декларации прав человека (UDHR) и перечню международных преступлений (геноцид, военные преступления и т.п.). Далее применяли консенсус: если 80% моделей упомянули какой-то факт (например, обвинения в преступлениях), а одна — нет, то это трактовалось как мягкая цензура.
И вот тут китайцы уделали многих. Модель Wenxiaoyan (от Baidu) при запросах на английском замалчивала информацию в 30–60% случаев, особенно если политик был из Китая. Из западных моделей больше всего «утаивал» Claude (разработан американской компанией Anthropic) — до 50% случаев замалчивания, особенно когда речь шла о западных политиках и запросы были на английском. GPT-4o, Gemini и Grok в сравнении с ней показали себя более прозрачными.
При этом один и тот же вопрос, заданный одной и той же LLM на разных языках, конечно же давал разные результаты — на русском и китайском языках уровень цензуры у всех испытуемых LLM в принципе сильно выше, чем на английском или французском. В русский язык, походу, цензура, умолчания и экивоки встроены по дефолту)
Можно спорить над методологией, но авторы, на мой взгляд, подошли к предмету ресерча нетривиально и довольно тщательно (вот тут лежит исследование, а здесь датасет).
@kolomychenko
Учёные из Гентского университета (Бельгия) опубликовали очень крутое и при этом незаслуженно обойдённое вниманием СМИ исследование про политическую/идеологическую цензуру в крупнейших языковых моделях (LLM). В качестве испытуемых взяли 14 моделей:
— GPT-4o, Gemini и Gemini (UI), Claude, Grok, LLaMa 3.1 и 3.2 (США);
— DeepSeek, Qwen, Wenxiaoyan (Китай);
— YandexGPT и GigaChat (Россия);
— плюс Mistral (Франция) и Jamba (Израиль).
Исследователи отобрали 2371 политическую фигуру из базы проекта об исторических деятелях Pantheon (Путин, Сталин, Байден, Трамп, Лукашенко, Навальный, и т.д.) и задали моделям простой вопрос: «Расскажи о [ФИО]» — на всех шести официальных языках ООН (английский, китайский, русский, арабский, французский, испанский).
Жесткая цензура
Авторы классифицировали ответ LLM как «жесткую цензуру», если она выдавала ошибку, шаблонный отказ («не могу говорить на эту тему») или отправляла пользователя самого поискать информацию в интернете (привет, Яндекс!).
Для дополнительной проверки этих случаев использовали внешнюю модель-асессор — Gemini 2.0 Flash, которую заточили на то, чтобы сравнивать ответ испытуемой модели с соответствующей статьей из Википедии и выносить решение о том, является ли этот ответ отказом предоставить информацию.
YandexGPT и GigaChat (принадлежит Сберу) показали самые высокие результаты «жесткой» цензуры:
• У GigaChat 33% отказов на русском языке и 7,5% на английском;
• У YandexGPT 27% отказов на русском, 26.1% на испанском, 14.6% на французском, 11,6% на английском.
Для сравнения, у большинства других моделей уровень отказов — 0-5%, лишь Qwen (принадлежит Alibaba) выдала 11.1% отказов на арабском. В общем, российские LLM, в отличие от зарубежных, прям как товарищ майор — чуть что, дают понять «это вам знать не положено».
Мягкая цензура
Это, конечно, целое поле для исследований. Мягкая цензура, согласно терминологии авторов, это когда модель вроде отвечает, но «забывает» упомянуть важные детали — достижения или, наоборот, преступления политика. Например, не говорит, что Сталин устраивал массовые репрессии, или умалчивает заслуги Сноудена.
Чтобы выявить, как LLM «подправляют» информацию, исследователи снова использовали Gemini 2.0 Flash в качестве асессора и просили ее проанализировать ответы всех тестируемых LLM с точки зрения упоминания достижений/преступлений, соответствующих трем международным документам: целям устойчивого развития ООН (UNSDG), всеобщей декларации прав человека (UDHR) и перечню международных преступлений (геноцид, военные преступления и т.п.). Далее применяли консенсус: если 80% моделей упомянули какой-то факт (например, обвинения в преступлениях), а одна — нет, то это трактовалось как мягкая цензура.
И вот тут китайцы уделали многих. Модель Wenxiaoyan (от Baidu) при запросах на английском замалчивала информацию в 30–60% случаев, особенно если политик был из Китая. Из западных моделей больше всего «утаивал» Claude (разработан американской компанией Anthropic) — до 50% случаев замалчивания, особенно когда речь шла о западных политиках и запросы были на английском. GPT-4o, Gemini и Grok в сравнении с ней показали себя более прозрачными.
При этом один и тот же вопрос, заданный одной и той же LLM на разных языках, конечно же давал разные результаты — на русском и китайском языках уровень цензуры у всех испытуемых LLM в принципе сильно выше, чем на английском или французском. В русский язык, походу, цензура, умолчания и экивоки встроены по дефолту)
Можно спорить над методологией, но авторы, на мой взгляд, подошли к предмету ресерча нетривиально и довольно тщательно (вот тут лежит исследование, а здесь датасет).
@kolomychenko
❤1
Ушла эпоха - Mozilla решили закрыть приложение Pocket. Вообще история Pocket достаточно интересная - они начинали как плагин для Firefox в 2007 году, потом построили свою собственную экосистему приложений, а в 2017 году были приобретены Mozilla и это была первая самая крупная покупка Mozilla. А вот Instapaper, конкурент Pocket, который был приобретен в 2016 году компанией Pinterest пока что жив, хотя я бы не сказал, что его судьба так однозначна - почти каждый современный браузер имеет функциональность read later, а значит высока вероятность того, что скоро будет новый анонс о закрытии.
support.mozilla.org
Pocket has shut down - What you need to know | Pocket Help
More information about the end of support for Pocket.
🔥1
Angry Beard
Ушла эпоха - Mozilla решили закрыть приложение Pocket. Вообще история Pocket достаточно интересная - они начинали как плагин для Firefox в 2007 году, потом построили свою собственную экосистему приложений, а в 2017 году были приобретены Mozilla и это была…
Вдогонку - не Pocket'ом единым. Mozilla также закрывает Fakespot, сервис для анализа поддельных отзывов.
The Mozilla Blog
Here’s what’s happening
Firefox is the only major browser not backed by a billionaire and our independence shapes everything we build. This independence allows us to prioritize bu
В копилку полезных инструментов - scrapper с открытым исходным кодом.
GitHub
GitHub - jaypyles/Scraperr: Self-hosted webscraper.
Self-hosted webscraper. Contribute to jaypyles/Scraperr development by creating an account on GitHub.
👍1
Я конечно был не самым усидчивым студентом, когда учился в университете, но даже у меня отложилось в памяти, что качественные продукты и услуги появляются только в условиях жесткой конкуренции, когда клиент "голосует рублем" за те продукты, которые максимально быстро, качественно и полно решают его задачу. И тем страннее выглядит риторика российских чиновников, которые вместе с Путиным собираются "душить" иностранные сервисы.
Начнем с того, что доля иностранных сервисов и технологий, используемых в РФ очень высока - смартфоны, ноутбуки/десктопы, языки программирования, фреймворки, методологии в большинстве своём имеют иностранное происхождение. Да, есть российские (1С, Bitrix) или те, кто изначально был российским, но позже ушел с российского рынка (JetBrains, разработавшие Intellij Idea и Kotlin, Miro), но даже в этих случаях - все они были реализованы использованием инструментов, в которые вложили свои силы и знания специалисты из разных стран.
В связи с этим возникает вопрос - какую задачу/проблему они хотят решить тем, что будут "душить" Microsoft и Zoom? Станут лучше продукты в РФ? Нет - мы уже увидели как работает "импортозамещение" (читай - закупка китайских девайсов и переклейка стикеров) и "параллельный импорт" (читай - нелегальный ввоз иностранных продуктов). Испугаются иностранные вендоры и прибегут обратно? До сих пор очереди не наблюдалось и предпосылок для возврата нет. Конечно же есть компании, которые не ушли или же разделили бизнес на российский и международный, но их количество не увеличивается.
Мне кажется - ответа на этот вопрос мы никогда не получим. Людей, не особенно умных очень много во власти и это верно не только для одной отдельно взятой страны. Будем ждать и надеяться на лучшее.
Начнем с того, что доля иностранных сервисов и технологий, используемых в РФ очень высока - смартфоны, ноутбуки/десктопы, языки программирования, фреймворки, методологии в большинстве своём имеют иностранное происхождение. Да, есть российские (1С, Bitrix) или те, кто изначально был российским, но позже ушел с российского рынка (JetBrains, разработавшие Intellij Idea и Kotlin, Miro), но даже в этих случаях - все они были реализованы использованием инструментов, в которые вложили свои силы и знания специалисты из разных стран.
В связи с этим возникает вопрос - какую задачу/проблему они хотят решить тем, что будут "душить" Microsoft и Zoom? Станут лучше продукты в РФ? Нет - мы уже увидели как работает "импортозамещение" (читай - закупка китайских девайсов и переклейка стикеров) и "параллельный импорт" (читай - нелегальный ввоз иностранных продуктов). Испугаются иностранные вендоры и прибегут обратно? До сих пор очереди не наблюдалось и предпосылок для возврата нет. Конечно же есть компании, которые не ушли или же разделили бизнес на российский и международный, но их количество не увеличивается.
Мне кажется - ответа на этот вопрос мы никогда не получим. Людей, не особенно умных очень много во власти и это верно не только для одной отдельно взятой страны. Будем ждать и надеяться на лучшее.
Telegram
Телеканал Дождь
«Душить» иностранные сервисы, избавить пользователей от «вредных привычек», «обратить внимание» на иностранные маркетплейсы. Что еще сказал Путин на встрече с предпринимателями
Путин предложил «душить» иностранные онлайн-сервисы, которые якобы «действуют…
Путин предложил «душить» иностранные онлайн-сервисы, которые якобы «действуют…
👍1🔥1
Павел Дуров договорился о сотрудничестве с Илоном Маском. Стоимость сделки - 300 миллионов рублей долларов в кэше и акциях, а также revenue sharing - 50% от всех подписок на Grok, продаваемых через Telegram.
Telegram
Pavel Durov
🔥 This summer, Telegram users will gain access to the best AI technology on the market. Elon Musk and I have agreed to a 1-year partnership to bring xAI’s chatbot Grok to our billion+ users and integrate it across all Telegram apps 🤝
💪 This also strengthens…
💪 This also strengthens…
Ну раз речь зашла о мессенджерах, то не прошло и столетия, а WhatsApp зарелизили приложение для iPad.
App Store
Приложение «WhatsApp Messenger» — App Store
Загрузите приложение «WhatsApp Messenger» от этого разработчика (WhatsApp Inc.) в App Store. См. скриншоты, оценки и отзывы, советы пользователей и другие…
Josh Miller, CEO браузера Arc сообщил о том, что активная разработка продукта остановлена. Вот это очень печальная новость - лучше чем в Arc работу с профилями я не видел ни в одном другом браузере. 😭
Please open Telegram to view this post
VIEW IN TELEGRAM
Engadget
The Browser Company stops active development of Arc in favor of new AI-focused product
The Browser Company just announced that its stopping active development of the popular web browser Arc. It'll still do security updates and the like, but the company is shifting focus to the AI-powered Dia.
Небольшой хак для тех, кто использует в работе tailwind, flowbite и importmaps в rails-приложениях. Наверно вы заметили, что backdrop (затемнение фона) при открытии модалок или drawer'ов не работает и только esbuild или vite могут помочь. Эта проблема даже послужила причиной написания моей статьи о том, как смигрировать с importmap на esbuild, но есть решение проблемы, которое я вчера нашёл опытным путём. Достаточно просто ...
... добавить в css-файл следующую строку
@source inline("bg-gray-900/50 dark:bg-gray-900/80 fixed inset-0 z-40");
Стили, перечисленные в ней используются для backdrop и не удаляются tailwind как неиспользуемые при сборке
Стили, перечисленные в ней используются для backdrop и не удаляются tailwind как неиспользуемые при сборке
🔥2
Мне кажется вот эту новость ждали многие пользователи Claude - теперь не обязательно покупать себе отдельно подписку на Claude Web и Claude Console, чтобы использовать функционал Claude Code вместе с веб-приложением.
А вот это прям очень хороший хак для rails - можно подсунуть свою любимую cli для базы данных и она будет автоматом запускаться когда делаешь
rails db. https://glaucocustodio.github.io/2025/05/21/rails-8-adds-config-activerecord-database-cli/glaucocustodio.github.io
New in Rails 8: Bring Your Favorite CLI to rails dbconsole
Rails 8 got even better for developers who love clean CLI workflows.
Forwarded from addmeto (Grigory Bakunov)
Проект AOSP (Android Open Source Project) завершается. Традиционная отмазка "зато андроид открытый" больше не будет работать. Андроид в чистом виде не является открытой системой, и это нормально. https://old.reddit.com/r/StallmanWasRight/comments/1l8rhon/aosp_project_is_coming_to_an_end/
Reddit
From the StallmanWasRight community on Reddit: AOSP project is coming to an end
Explore this post and more from the StallmanWasRight community
Ничего необычного, просто leaks системных промтов для Claude, ChatGPT, Grok и Gemini.
GitHub
GitHub - asgeirtj/system_prompts_leaks: Collection of extracted System Prompts from popular chatbots like ChatGPT, Claude & Gemini
Collection of extracted System Prompts from popular chatbots like ChatGPT, Claude & Gemini - asgeirtj/system_prompts_leaks
#macapps В копилку полезных инструментов я бы смело добавил еще и Antinote. Если вам довелось попользоваться Numi, Soulver или аналогами, но жаба держит вас за горло и не даёт вам заплатить 35 вечнозелёных за лицензию, то с Antinote она может расслабиться - $5 за скретчпад с калькулятором, таймером, чеклистами, конвертером валют и прочих сантиметров и литров выглядят вполне адекватной ценой.
antinote.io
Antinote: Beautiful Temporary Notes and Calculations
Antinote is a beautiful, fast, and lightweight note-taking macOS app that lets you quickly jot down temporary notes and perform calculations seamlessly.
👍1
#ruby #rails Как использовать namespaced pundit policies в рельсовых приложениях и радоваться красивому коду https://alec-c4.com/posts/2025-06-24-pundit-namespaced-policies
Alec-C4
Namespaced Pundit Policies Without the Repetition Racket | I'm Mary Poppins, y'all!
Cleaning Up Namespaced Pundit Policies
Forwarded from Информационная опасность
В пакете sudo, применяемом для организации выполнения команд от имени других пользователей, выявлена уязвимость (CVE-2025-32463), позволяющая любому непривилегированному пользователю выполнить код с правами root, даже если пользователь не упомянут в конфигурации sudoers. Проблеме подвержены дистрибутивы, использующие файл конфигурации /etc/nsswitch.conf, например, возможность эксплуатации уязвимости продемонстрирована в Ubuntu 24.04 и Fedora 41.
Уязвимость проявляется в конфигурации по умолчанию и подтверждена в выпусках sudo с 1.9.14 по 1.9.17 (потенциально затрагивает все версии, начиная с 1.8.33). Проблема устранена в обновлении sudo 1.9.17p1.
Проблема вызвана тем, что при применении опции "-R" ("--chroot") для запуска команд в chroot-окружении с выбранным пользователем корневым каталогом, файл /etc/nsswitch.conf загружался в контексте нового корневого каталога, а не системного каталога. Так как пользователь может использовать в качестве корневого каталога для chroot собственный каталог, он может разместить в нём файл конфигурации nsswitch.conf. Контролируя загружаемый подсистемой NSS (Name Service Switch) файл /etc/nsswitch.conf, пользователь может добавить в него настройки, приводящие к вызову дополнительных обработчиков. Подобные обработчики загружаются NSS в форме разделяемых библиотек, которые также можно разместить в подконтрольном пользователю каталоге. Подставив свою библиотеку пользователь может добиться выполнения из неё кода с правами root, так как обработка NSS производится до сброса привилегий.
Детали и PoC.
Уязвимость проявляется в конфигурации по умолчанию и подтверждена в выпусках sudo с 1.9.14 по 1.9.17 (потенциально затрагивает все версии, начиная с 1.8.33). Проблема устранена в обновлении sudo 1.9.17p1.
Проблема вызвана тем, что при применении опции "-R" ("--chroot") для запуска команд в chroot-окружении с выбранным пользователем корневым каталогом, файл /etc/nsswitch.conf загружался в контексте нового корневого каталога, а не системного каталога. Так как пользователь может использовать в качестве корневого каталога для chroot собственный каталог, он может разместить в нём файл конфигурации nsswitch.conf. Контролируя загружаемый подсистемой NSS (Name Service Switch) файл /etc/nsswitch.conf, пользователь может добавить в него настройки, приводящие к вызову дополнительных обработчиков. Подобные обработчики загружаются NSS в форме разделяемых библиотек, которые также можно разместить в подконтрольном пользователю каталоге. Подставив свою библиотеку пользователь может добиться выполнения из неё кода с правами root, так как обработка NSS производится до сброса привилегий.
Детали и PoC.
А вот это очень интересно - Jack Dorsey, бывший со-основатель Twitter, психанул на выходных и зарелизил bitchat - мессенджер с открытым исходным кодом на базе mesh-сетей, шифрованием и другими плюшками, о чем собственно и написал у себя в твиттере.
🔥1