METANIT.COM
6.24K subscribers
1.79K photos
86 videos
10 files
1.26K links
Канал о программировании и разработке сайта metanit.com
Download Telegram
Индекс HH.ru для профобласти ИТ впервые держится выше значения 8 второй месяц подряд. Этот индекс показывает отношение количества резюме к количеству вакансий.
Судя по данным, минимальное значение индекса за последние 5 лет наблюдалось в феврале 2019 года и составляло 2.5. Это означает, что специалистов в отрасли критически не хватало, и это способствовало росту зарплат.
В последнее время индекс рос и с 2023 года редко падал ниже показателя в 7 пунктов.
https://habr.com/ru/articles/855608/
👍3🖕1
Примеры применения наиболее популярных СУБД с открытым исходным кодом
Типы вредоносного кода
👍3
В течение месяца в Telegram появятся 10 новых функции для мини-приложений, которые позволят разработчикам создавать новые виды приложений и игр, сообщил Павел Дуров.
В частности, появятся:
Полноэкранный режим работы мини-приложений;
Возможность добавления иконок мини-приложений на рабочий стол;
Разные варианты платных подписок внутри мини-приложений;
Использование мини-приложениями геолокации телефона и градуса поворота экрана с помощью гироскопа и акселерометра
https://t.me/durov/362
👍3
Как выучить 42 языка за месяц - написать свою подцветку синтаксиса
https://justine.lol/lex/
В реальности не думаю, что она реально выучила все 42 языка, скорее просто получила представление
👍4😁3
Шпаргалка по iptables в Linux
👍4
Ограничения базы данных
👍7
Шпаргалка по Join в SQL
👍18
This media is not supported in your browser
VIEW IN TELEGRAM
Шпаргалка по созданию безопасных систем
👍4
Инструменты отладки в Linux
👍2
Шпаргалка по функциям для работы с DOM в JavaScript
👍5
Почему LLM плохи для поиска?
(Автор - Эмили Бендер, американский лингвист, профессор Вашингтонского университета, специалист в области компьютерной лингвистики и обработки естественного языка)

Почему LLM плохи для поиска? Потому что LLM — это не более чем статистические модели распределения словоформ в тексте, настроенные на вывод правдоподобно звучащих последовательностей слов.

Если кто-то использует LLM в качестве замены для поиска и получает правильный вывод, это просто случайность.

Более того, система, которая верна в 95% случаев, возможно, более опасна, чем та, которая верна в 50% случаев. Люди будут с большей вероятностью доверять выводу и, вероятно, будут менее способны проверять факты в 5%.

Настройка всего так, чтобы вы получали «ответ» на свой вопрос, лишает пользователя возможности делать осмысление, которое имеет решающее значение для информационной грамотности.

Это осмысление включает в себя уточнение вопроса, понимание того, как разные источники говорят о вопросе, и нахождение каждого источника в информационном ландшафте.

Представьте, что вы вводите медицинский запрос в стандартную поисковую систему и получаете список ссылок, включая одну на местный университетский медицинский центр, одну на медицинский справочник, одну на известного доктора и одну на активный форум для людей с похожими медицинскими проблемами.
Если у вас есть базовые ссылки, у вас есть возможность оценить надежность и релевантность информации для вашего текущего запроса --- а также со временем расширить свое понимание этих источников.

Если вместо этого вы получаете ответ от чат-бота, даже если он правильный, вы теряете возможность для этого роста информационной грамотности.

Случай с форумом для обсуждений имеет еще один поворот: любую предоставленную информацию вы, вероятно, захотите проверить из других источников, но возможность связаться с людьми, проходящими похожие медицинские пути, бесценна.

Наконец, парадигма чат-ботов как поиска побуждает нас просто принимать ответы такими, какие они есть, особенно если они изложены в дружелюбной и авторитетной форме.
👍15
Как улучшить производительность API
1
Команды по управлению сетевыми подключениями в Linux
👍5
Бросайте мусор в подходящий контейнер
😁21🤣8