Анонимный телеграм-канал
39 subscribers
1.56K photos
478 videos
11 files
1.13K links
Download Telegram
Llama тренировалась Meta на двух тысячах A100 (как минимум на 60% медленнее, чем H100), теперь Meta закупает 150 тысяч H100.
Media is too big
VIEW IN TELEGRAM
Вот как нужно делать обзоры, хотелось бы больше подобных.
Источник: Джейсон Каммиса на ютубе.
1🔥1
Альфия Шайхулова творит в инстаграме
2
Media is too big
VIEW IN TELEGRAM
Трейлер (тизер?) GTA VI выложили немного раньше из-за утечки 🔗
Интернет — просто мимолетное увлечение, от которого уже отказались миллионы человек. 5 декабря 2000 года, ровно 23 года назад.
Apple launches MLX — an efficient machine learning framework specifically designed for Apple silicon (i.e. your laptop!). MLX design is inspired by existing frameworks such as PyTorch, Jax, and ArrayFire. However, MLX adds support for a unified memory model, which means arrays live in shared memory and operations can be performed on any of the supported device types without performing data copies.

https://www.computerworld.com/article/3711408/apple-launches-mlx-machine-learning-framework-for-apple-silicon.html
Media is too big
VIEW IN TELEGRAM
Если это и правда будет работать примерно так, без натужного черри-пикинга, то это отвал башки. Мультимодальность в основе (а не как связующий костыль) — это круто.
Немного потестировал Gemini Pro с другими крупнейшими LLM. Никаких сюрпризов, все так же, как и было до этого. Безусловным победителем оказался (сюрприз!) GPT 4 Turbo, за ним идут GPT 4 Bing / Anthropic Claude 2.1. Результат гугловского апгрейда Барда пока не очень впечатляет, в большинстве случаев он отвечает даже хуже Claude, тягаться может разве что с GPT 3.5 Turbo (но тут зависит от задачи, необходимости свежих данных, и это еще пока не Gemini Ultra). Скриншоты с примерами в приложенном архиве:

1. Вопрос про количество бананов:

GPT 3.5 Turbo — (логическая ошибка)
GPT 4 Turbo — (отлично)
Gemini Pro / Bard — (логическая ошибка)
GPT 4 Bing — (почти ОК, но ошибка в логике)
Anthropic Claude 2.1 — (отлично)

2. Простая арифметика с порядком операций:

GPT 3.5 Turbo — (полный провал)
GPT 4 Turbo — (отлично)
Gemini Pro / Bard — (отлично)
GPT 4 Bing — (корявенький вывод)
Anthropic Claude 2.1 — (отлично)

3. Логика с подсчетом слоновьих ног:

GPT 3.5 Turbo — (отлично)
GPT 4 Turbo — (отлично)
Gemini Pro / Bard — (полный провал, консистентно)
GPT 4 Bing — (отлично)
Anthropic Claude 2.1 — (отлично)

4. Шутка Маска с рогозинским батутом:

GPT 3.5 Turbo — (полный провал)
GPT 4 Turbo — (отлично)
Gemini Pro / Bard — (отлично)
GPT 4 Bing — (отлично)
Anthropic Claude 2.1 — (полный провал)

5. Вывод слов с заданными параметрами:

GPT 3.5 Turbo —
GPT 4 Turbo —
Gemini Pro / Bard —
GPT 4 Bing —
Anthropic Claude 2.1 — (почти, но нет)

#llm
👍2
СССР 2.0 в действии – доставка «звездочки» Грабом за 15 минут на дом.