Учимся делать ИИ-агентов С НУЛЯ — нашли обучающий репозиторий, где по полочкам разложили все нюансы сборки агентов
Научитесь использовать локальные модели, шаблоны агентов, инструменты, архитектуры и многое другое.
Забираем актуалочку тут.
@PushEnter
Научитесь использовать локальные модели, шаблоны агентов, инструменты, архитектуры и многое другое.
Забираем актуалочку тут.
@PushEnter
На Солнце образовался огромный смайлик — теперь оно смотрит на Землю с хитрой ухмылкой, которая по площади занимает полмиллиона километров
Метеозависимые, это вам.
@PushEnter
Метеозависимые, это вам.
@PushEnter
Please open Telegram to view this post
VIEW IN TELEGRAM
По их словам, мессенджер стал средством общения между человеком и церковью, а всем россиянам нужно молиться за «дарование мудрости, рассудительности и вразумления сотрудникам Минцифры и РКН».
Молимся 24/7.
@PushEnter
Please open Telegram to view this post
VIEW IN TELEGRAM
Даже Лукашенко вступился за Telegram: он считает, что запрещать платформы в 21 веке — это «дикость и средневековье»
Батька выдал базу.
@PushEnter
Батька выдал базу.
@PushEnter
Причина пока неизвестна.
@PushEnter
Please open Telegram to view this post
VIEW IN TELEGRAM
Подборка сайтов СО СКИЛЛАМИ для ИИ-агентов — можно научить своего бота абсолютно всему без исключения:
Сохраняем.
@PushEnter
• skills.sh
• skillhub.club
• skillsmp.com
Сохраняем.
@PushEnter
Забираем локальный ИИ-парсер — ScraperAI может собрать любые данные с помощью опенсорсных моделей
Подрубаем любую модель, даём веб-страницу на растерзание и собираем любые данные. Есть поддержка Selenium, минимизации HTML и гибких настроек для маскировки парсера.
Забираем тут.
@PushEnter
Подрубаем любую модель, даём веб-страницу на растерзание и собираем любые данные. Есть поддержка Selenium, минимизации HTML и гибких настроек для маскировки парсера.
Забираем тут.
@PushEnter
Please open Telegram to view this post
VIEW IN TELEGRAM
Жизнь в России стала дороже, чем в Китае — компания Zinoruss, помогающая студентам из Китая поступить в Россию, выкатила инфографику сравнения цен:
Единственные категории, которые оказались в России дешевле — лапша быстрого приготовления, хлеб и 500 грамм яблок.
Думаем.
@PushEnter
• Аренда квартиры на одного: Китай — ₽17000, Россия — ₽67000
• Метро: Китай — ₽33-67, Россия — ₽78
• Поход в ресторан на одного: Китай — ₽780, Россия — ₽1117
• Такси: Китай — ₽170, Россия — ₽335
Единственные категории, которые оказались в России дешевле — лапша быстрого приготовления, хлеб и 500 грамм яблок.
Думаем.
@PushEnter
Нейробиологи вычислили лучшие часы ДЛЯ СЕКСА — в это время у мужчин и женщин повышенное либидо и высокая гормональная активность
По внутренним биологическим часам разные железы внутри организма впрыскивают в кровь разные вещества, которые управляют желанием — это происходит 4 раза в сутки:
У мужчин:
У женщин:
Если наложить эти расписания друг на друга, то лучшими часами секса обоих полов — с 9 до 10, с 15 до 16, с 21 до 22 и с 3 до 4 ночи.
Вы знаете, что делать через пару часиков😇
@PushEnter
По внутренним биологическим часам разные железы внутри организма впрыскивают в кровь разные вещества, которые управляют желанием — это происходит 4 раза в сутки:
У мужчин:
• С 8 до 10 часов утра
• С 14 до 16 часов
• С 20 до 22 часов вечера
• С 3 до 4 ночи
У женщин:
• С 9 до 11 часов утра
• С 15 до 17 часов
• С 21 до 23 часов вечера
• С 3 до 5 ночи
Если наложить эти расписания друг на друга, то лучшими часами секса обоих полов — с 9 до 10, с 15 до 16, с 21 до 22 и с 3 до 4 ночи.
Вы знаете, что делать через пару часиков
@PushEnter
Please open Telegram to view this post
VIEW IN TELEGRAM
Теперь модель на 16В может потянуть любое СЛАБОЕ железо — вышла LLaDA 2.1-mini, использующая архитектуру, которая запускает модель по частям при генерации
На каждом этапе будет работать лишь 1,4В — в итоге получается вычислительная мощь жирной модели с производительностью небольшой LLM. При этом у неё 32к токенов контекста, что хватит на обработку длинных документов, книг, кодовой базы и прочих объёмных данных.
Модель лежит тут.
@PushEnter
На каждом этапе будет работать лишь 1,4В — в итоге получается вычислительная мощь жирной модели с производительностью небольшой LLM. При этом у неё 32к токенов контекста, что хватит на обработку длинных документов, книг, кодовой базы и прочих объёмных данных.
Модель лежит тут.
@PushEnter