[PYTHON:TODAY]
64K subscribers
2.48K photos
1.13K videos
312 files
1.56K links
Python скрипты, нейросети, боты, автоматизация. Всё бесплатно!

Приват: https://boosty.to/pythontoday
YouTube: https://clck.ru/3LfJhM
Канал админа: @akagodlike
Чат: @python2day_chat

Сотрудничество: @web_runner

Канал в РКН: https://clck.ru/3GBFVm
Download Telegram
⚡️ Fara-7B — компактную агентная модель от Microsoft, которая не просто «болтает», а управляет браузером как человек.

Это не чат-бот.
Это Computer Use Agent.

🖱 Что умеет:

➡️ Видит веб-страницу визуально.
➡️ Скроллит.
➡️ Кликает по координатам.
➡️ Вводит текст.
➡️ Выполняет многошаговые задачи.

Без accessibility tree, без костылей, без отдельного парсинга DOM — модель работает через визуальное восприятие интерфейса!


💻 Можно автоматизировать:

💬 Поиск и резюмирование информации.
💬 Заполнение форм.
💬 Покупки и сравнение цен.
💬 Бронирование билетов и ресторанов.
💬 Поиск вакансий и недвижимости.

По сути — это автономный браузерный ассистент.

🟢Установка:
git clone https://github.com/microsoft/fara.git
cd fara


🟢Создаёшь окружение:
python3 -m venv .venv
source .venv/bin/activate
pip install -e .[vllm]
playwright install


🟢Запускаешь модель:
vllm serve "microsoft/Fara-7B" --port 5000 --dtype auto


🟢И тестируешь:
fara-cli --task "whats the weather in new york now"


Можно подключить к Magentic-UI и управлять через графический интерфейс.

⚠️ На Windows лучше использовать WSL2.
⚠️ Если не хватает памяти — добавь --tensor-parallel-size 2.

♎️ GitHub/Инструкция

#python #soft #github
Please open Telegram to view this post
VIEW IN TELEGRAM
👍348🔥7🫡3
👊 Появился почти идеальный суммаризатор для русского языка

Чувак обучил модель специально под русский язык, коротко пересказывать длинные тексты без потери смысла.

Алгоритм выжимает из документа самую суть и превращает десятки страниц в несколько абзацев — без воды и искажений.

📄 статьи
📚 большие тексты
📦 отчёты
🧾 документы

Модель спокойно прогоняет всё это через себя и выдаёт аккуратное резюме.

😰 Пример использования:
# Установим библиотеку трансформеров
!pip install transformers

# Импортируем библиотеки
from transformers import AutoModelForSeq2SeqLM, T5TokenizerFast

# Зададим название выбронной модели из хаба
MODEL_NAME = 'UrukHan/t5-russian-summarization'
MAX_INPUT = 256

# Загрузка модели и токенизатора
tokenizer = T5TokenizerFast.from_pretrained(MODEL_NAME)
model = AutoModelForSeq2SeqLM.from_pretrained(MODEL_NAME)

# Входные данные (можно массив фраз или текст)
input_sequences = ['Тут твой текст'] # или можно использовать одиночные фразы: input_sequences = 'сегодня хороший день'

task_prefix = "Spell correct: " # Токенизирование данных
if type(input_sequences) != list: input_sequences = [input_sequences]
encoded = tokenizer(
[task_prefix + sequence for sequence in input_sequences],
padding="longest",
max_length=MAX_INPUT,
truncation=True,
return_tensors="pt",
)

predicts = model.generate(encoded) # # Прогнозирование

tokenizer.batch_decode(predicts, skip_special_tokens=True) # Декодируем данные


⬇️ Модель на huggingface и примеры использования

#нейросеть #python #soft
Please open Telegram to view this post
VIEW IN TELEGRAM
👍31🔥95