В рамках нашей новой рубрики — ещё один скрипт для порядка в системе
Одной командой избавимся от них!
Скрипт: remove_empty_dirs.sh
#!/bin/bash
TARGET_DIR="${1:-.}"
echo "🧹 Удаляем пустые папки в: $TARGET_DIR"
find "$TARGET_DIR" -type d -empty -delete
echo "✅ Готово!"
Как применять:
1. Сохрани файл под именем
remove_empty_dirs.sh
2. Сделай его исполняемым:
chmod +x remove_empty_dirs.sh
3. Запусти, указав нужную папку, например:
./remove_empty_dirs.sh ~/Загрузки
Можно добавить вызов скрипта в
cron
и навсегда забыть о пустых директориях. Если совет оказался полезным — ставьте лайк, чтобы мы знали, что продолжать в том же духе
#bash #утилиты #терминал
Please open Telegram to view this post
VIEW IN TELEGRAM
Сэм Альтман пообещал исправить "чрезмерно льстивый"
стиль GPT-4o после критики пользователей.🤨
В посте на X (признана экстремистской организацией и запрещена на территории России) он признал, что последние обновления сделали модель «слишком покладистой и раздражающей», хотя отметил и положительные стороны.
Критика в соцсетях указывает на недовольство тоном ответов чат-бота. OpenAI уже работает над исправлениями: часть изменений будет внедрена сегодня, остальные — в ближайшие дни. Альтман добавил, что компания поделится результатами и признал необходимость большей гибкости, заявив: «В будущем нужно будет предлагать несколько вариантов».
#news #gpt4o #Искусственный_интеллект
стиль GPT-4o после критики пользователей.
В посте на X (признана экстремистской организацией и запрещена на территории России) он признал, что последние обновления сделали модель «слишком покладистой и раздражающей», хотя отметил и положительные стороны.
Критика в соцсетях указывает на недовольство тоном ответов чат-бота. OpenAI уже работает над исправлениями: часть изменений будет внедрена сегодня, остальные — в ближайшие дни. Альтман добавил, что компания поделится результатами и признал необходимость большей гибкости, заявив: «В будущем нужно будет предлагать несколько вариантов».
#news #gpt4o #Искусственный_интеллект
Please open Telegram to view this post
VIEW IN TELEGRAM
В самом разгаре майские выходные😎
Как их проводите вы?
Какие планы на оставшиеся дни?
Как их проводите вы?
Какие планы на оставшиеся дни?
Please open Telegram to view this post
VIEW IN TELEGRAM
Google продолжает использовать контент для обучения своих ИИ-моделей, несмотря на отказы издателей. 😐
Другие подразделения Google, включая команду веб-поиска, используют данные, от которых отказался DeepMind, в частности, в "AI-обзорах", снижая трафик на оригинальные сайты. Несмотря на то, что внутренний документ Google за лето 2024 года упоминает, что половина из 160 млрд токенов для обучения ИИ была "отозвана", эти данные продолжают применяться в других сервисах компании.
Это происходит несмотря на антимонопольное дело Минюста США, которое требует, чтобы Google продала Chrome и прекратила платить за установку своего поиска по умолчанию, а также распространила эти ограничения на продукты ИИ, включая Gemini. Отказ издателей поднимает вопрос о создании рынка качественных обучающих данных вместо практики "добросовестного использования", защиту которой недавно отклонил американский суд в деле против Meta*.
*Meta и её продукты запрещены на территории Российской Федерации.
#news #ии #машинное_обучение #google
Другие подразделения Google, включая команду веб-поиска, используют данные, от которых отказался DeepMind, в частности, в "AI-обзорах", снижая трафик на оригинальные сайты. Несмотря на то, что внутренний документ Google за лето 2024 года упоминает, что половина из 160 млрд токенов для обучения ИИ была "отозвана", эти данные продолжают применяться в других сервисах компании.
Это происходит несмотря на антимонопольное дело Минюста США, которое требует, чтобы Google продала Chrome и прекратила платить за установку своего поиска по умолчанию, а также распространила эти ограничения на продукты ИИ, включая Gemini. Отказ издателей поднимает вопрос о создании рынка качественных обучающих данных вместо практики "добросовестного использования", защиту которой недавно отклонил американский суд в деле против Meta*.
*Meta и её продукты запрещены на территории Российской Федерации.
#news #ии #машинное_обучение #google
Please open Telegram to view this post
VIEW IN TELEGRAM
OpenSearch 3.0: основные изменения😲
OpenSearch 3.0 — открытая платформа для поиска, аналитики и визуализации данных, созданная как форк Elasticsearch и Kibana. Проект поддерживается Linux Foundation и разрабатывается при участии Amazon, SAP, Uber, Atlassian и других. Исходный код распространяется под лицензией Apache 2.0.
Что нового в 3.0:
-Векторный движок с GPU-ускорением: индексирование в 9,3× быстрее, расходы снижены в 3,75×;
-Протокол MCP для взаимодействия с LLM и интеграция с OpenAI, Anthropic, LangChain;
-Оптимизация хранения векторов k-NN: меньший размер, быстрый холодный старт (до 30×);
-Поддержка gRPC для снижения накладных расходов и повышения производительности;
-Pull-режим получения данных из Kafka и Kinesis;
-API для отключения записи в индекс (режим «только чтение»);
-Поддержка PPL (Piped Processing Language) и интеграция с Apache Calcite;
-Автоопределение типов индексов, включая оптимизации для логов;
-Обновление Lucene до версии 10, улучшение индексации и параллельной обработки;
-Переход на Java 21+ с поддержкой Java-модулей (JPMS);
-Ускорение агрегирования и работы с диапазонами дат/чисел (до 75% и 25% соответственно);
-Параллельный поиск сегментов для k-NN (ускорение запросов в 2,5×).
#news #OpenSearch_3_0 #OpenSearch #Elasticsearch
OpenSearch 3.0 — открытая платформа для поиска, аналитики и визуализации данных, созданная как форк Elasticsearch и Kibana. Проект поддерживается Linux Foundation и разрабатывается при участии Amazon, SAP, Uber, Atlassian и других. Исходный код распространяется под лицензией Apache 2.0.
Что нового в 3.0:
-Векторный движок с GPU-ускорением: индексирование в 9,3× быстрее, расходы снижены в 3,75×;
-Протокол MCP для взаимодействия с LLM и интеграция с OpenAI, Anthropic, LangChain;
-Оптимизация хранения векторов k-NN: меньший размер, быстрый холодный старт (до 30×);
-Поддержка gRPC для снижения накладных расходов и повышения производительности;
-Pull-режим получения данных из Kafka и Kinesis;
-API для отключения записи в индекс (режим «только чтение»);
-Поддержка PPL (Piped Processing Language) и интеграция с Apache Calcite;
-Автоопределение типов индексов, включая оптимизации для логов;
-Обновление Lucene до версии 10, улучшение индексации и параллельной обработки;
-Переход на Java 21+ с поддержкой Java-модулей (JPMS);
-Ускорение агрегирования и работы с диапазонами дат/чисел (до 75% и 25% соответственно);
-Параллельный поиск сегментов для k-NN (ускорение запросов в 2,5×).
#news #OpenSearch_3_0 #OpenSearch #Elasticsearch
Please open Telegram to view this post
VIEW IN TELEGRAM
Хотим вам напомнить про наш чатик и другие соц-сети, заглядывайте🤗
Чат: @it_wiki_com_ru_chat
Группа вк: https://vk.com/it_wiki_com_ru
Бусти: https://boosty.to/it_wiki_com_ru
Чат: @it_wiki_com_ru_chat
Группа вк: https://vk.com/it_wiki_com_ru
Бусти: https://boosty.to/it_wiki_com_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
Разработчики Linux отказались от поддержки процессоров i486🤔
Мейнтейнер ядра Linux Инго Молнар представил вторую версию патчей, удаляющих поддержку процессоров i486 и ранних i586. Новая версия ядра будет поддерживать только CPU с инструкцией CX8 (CMPXCHG8B) и регистром TSC, появившимися в Pentium.
Удаление старых процессоров упростит сопровождение ядра и избавит от 14 104 строк устаревшего кода, включая эмуляцию CX8, TSC и библиотеку math-emu. Это сократит сложность ядра и устранит потенциальные проблемы, возникающие из-за старых архитектур.
Линус Торвальдс поддержал инициативу, заявив, что нет смысла тратить усилия на поддержку устаревших CPU. По его словам, современные системы уже не используют i486, а старые дистрибутивы и так работают с прежними версиями ядра.
Поддержка встроенных процессоров типа Intel Quark останется, так как они реализуют нужные инструкции. Ранее, 12 лет назад, Торвальдс уже прекратил поддержку i386 и призывал к дальнейшей очистке ядра от устаревшего кода.
#news #Linux #i486
Мейнтейнер ядра Linux Инго Молнар представил вторую версию патчей, удаляющих поддержку процессоров i486 и ранних i586. Новая версия ядра будет поддерживать только CPU с инструкцией CX8 (CMPXCHG8B) и регистром TSC, появившимися в Pentium.
Удаление старых процессоров упростит сопровождение ядра и избавит от 14 104 строк устаревшего кода, включая эмуляцию CX8, TSC и библиотеку math-emu. Это сократит сложность ядра и устранит потенциальные проблемы, возникающие из-за старых архитектур.
Линус Торвальдс поддержал инициативу, заявив, что нет смысла тратить усилия на поддержку устаревших CPU. По его словам, современные системы уже не используют i486, а старые дистрибутивы и так работают с прежними версиями ядра.
Поддержка встроенных процессоров типа Intel Quark останется, так как они реализуют нужные инструкции. Ранее, 12 лет назад, Торвальдс уже прекратил поддержку i386 и призывал к дальнейшей очистке ядра от устаревшего кода.
#news #Linux #i486
Microsoft интегрирует Phi-4 mini в Edge для локального ИИ на Windows 11😲
Microsoft планирует сделать браузер Edge более умным, встроив в него языковую модель Phi-4 mini, которая будет работать локально на устройствах с Windows 11.
Пользователь X* Leopeva64 обнаружил в Edge Canary 138.0.3323.0 новые флаги, связанные с Phi mini. Один из них — Prompt API for Phi mini — позволяет активировать модель, но пока это экспериментальный интерфейс.
Microsoft представила серию компактных моделей Phi-4 в прошлом месяце. Phi-4 mini, содержащая 3,8 млрд параметров, в некоторых тестах обошла модели DeepSeek-R1, GPT o1 и Claude-3.7-Sonnet, требуя меньше ресурсов и обходясь дешевле.
Ранее компания тестировала Phi-3, но теперь делает ставку на Phi-4, которая может выполнять задачи вроде обобщения, классификации и перефразирования прямо в браузере. Сейчас эти функции выполняет облачный Copilot, но с Phi-4 Edge сможет обрабатывать ИИ-задачи локально — возможно, даже без обязательного наличия NPU.
* соцсеть, запрещённая на территории Российской Федерации
#news #windows_11 #edge #ии
Microsoft планирует сделать браузер Edge более умным, встроив в него языковую модель Phi-4 mini, которая будет работать локально на устройствах с Windows 11.
Пользователь X* Leopeva64 обнаружил в Edge Canary 138.0.3323.0 новые флаги, связанные с Phi mini. Один из них — Prompt API for Phi mini — позволяет активировать модель, но пока это экспериментальный интерфейс.
Microsoft представила серию компактных моделей Phi-4 в прошлом месяце. Phi-4 mini, содержащая 3,8 млрд параметров, в некоторых тестах обошла модели DeepSeek-R1, GPT o1 и Claude-3.7-Sonnet, требуя меньше ресурсов и обходясь дешевле.
Ранее компания тестировала Phi-3, но теперь делает ставку на Phi-4, которая может выполнять задачи вроде обобщения, классификации и перефразирования прямо в браузере. Сейчас эти функции выполняет облачный Copilot, но с Phi-4 Edge сможет обрабатывать ИИ-задачи локально — возможно, даже без обязательного наличия NPU.
* соцсеть, запрещённая на территории Российской Федерации
#news #windows_11 #edge #ии
Please open Telegram to view this post
VIEW IN TELEGRAM
Python против C++: Краткое сравнение языков🤔
Давайте кратко сравним Python и C++ — у каждого свои плюсы.
C++:
Скорость: Компилируемый, очень быстрый. Идеален для игр, ОС, где важна каждая миллисекунда.
Сложность: Придётся попотеть. Ручное управление памятью, разработка дольше.
Применение: Игры, ОС, встраиваемые системы, сложные вычисления, финансы.
Python:
Скорость: Интерпретируемый, не такой быстрый. Но для задач с ожиданием данных или с быстрыми библиотеками — скорость незаметна.
Простота: Чемпион! Понятный синтаксис, много готовых библиотек, ускоряет разработку и прототипирование.
Применение: Веб-разработка, анализ данных, машинное обучение, автоматизация.
Итог:
Нет "победителя". C++ — для производительности и контроля. Python — для быстрой разработки и готовых решений. Часто их используют вместе.
Ставьте реакции, если вам понравилось, а также пишите, что ещё сравнить❓
#сравнение
Давайте кратко сравним Python и C++ — у каждого свои плюсы.
C++:
Скорость: Компилируемый, очень быстрый. Идеален для игр, ОС, где важна каждая миллисекунда.
Сложность: Придётся попотеть. Ручное управление памятью, разработка дольше.
Применение: Игры, ОС, встраиваемые системы, сложные вычисления, финансы.
Python:
Скорость: Интерпретируемый, не такой быстрый. Но для задач с ожиданием данных или с быстрыми библиотеками — скорость незаметна.
Простота: Чемпион! Понятный синтаксис, много готовых библиотек, ускоряет разработку и прототипирование.
Применение: Веб-разработка, анализ данных, машинное обучение, автоматизация.
Итог:
Нет "победителя". C++ — для производительности и контроля. Python — для быстрой разработки и готовых решений. Часто их используют вместе.
Ставьте реакции, если вам понравилось, а также пишите, что ещё сравнить
#сравнение
Please open Telegram to view this post
VIEW IN TELEGRAM
Всех с первым днём лета 🎉
Please open Telegram to view this post
VIEW IN TELEGRAM
Уязвимость в GitHub MCP Server приводит к утечке данных из приватных репозиториев😦
Исследователи из Invariantlabs обнаружили уязвимость в GitHub MCP Server — реализации протокола Model Context Protocol (MCP), позволяющего AI-моделям взаимодействовать с репозиториями GitHub. Уязвимость даёт злоумышленникам возможность извлекать конфиденциальные данные из приватных репозиториев через публичные issues, обрабатываемые AI-ассистентами.
Атакующий создаёт специальное сообщение об ошибке в публичном репозитории, вызывая действия AI-модели, связанной с MCP. В ответ модель может сформировать pull-запрос с чувствительной информацией, случайно извлечённой из приватных репозиториев.
Пример атаки: в репозитории ukend0464/pacman AI-модель Claude 4 Opus раскрыла личные данные автора и список его приватных репозиториев.
Уязвимость не зависит от конкретной модели и связана с архитектурой взаимодействия AI-агентов с MCP. Проблема требует системного решения и не может быть устранена только на стороне GitHub.
#news #GitHub #Open_source
Исследователи из Invariantlabs обнаружили уязвимость в GitHub MCP Server — реализации протокола Model Context Protocol (MCP), позволяющего AI-моделям взаимодействовать с репозиториями GitHub. Уязвимость даёт злоумышленникам возможность извлекать конфиденциальные данные из приватных репозиториев через публичные issues, обрабатываемые AI-ассистентами.
Атакующий создаёт специальное сообщение об ошибке в публичном репозитории, вызывая действия AI-модели, связанной с MCP. В ответ модель может сформировать pull-запрос с чувствительной информацией, случайно извлечённой из приватных репозиториев.
Пример атаки: в репозитории ukend0464/pacman AI-модель Claude 4 Opus раскрыла личные данные автора и список его приватных репозиториев.
Уязвимость не зависит от конкретной модели и связана с архитектурой взаимодействия AI-агентов с MCP. Проблема требует системного решения и не может быть устранена только на стороне GitHub.
#news #GitHub #Open_source
Please open Telegram to view this post
VIEW IN TELEGRAM