Media is too big
VIEW IN TELEGRAM
Вот как нужно делать обзоры, хотелось бы больше подобных.
Источник: Джейсон Каммиса на ютубе.
Источник: Джейсон Каммиса на ютубе.
❤1🔥1
Media is too big
VIEW IN TELEGRAM
Трейлер (тизер?) GTA VI выложили немного раньше из-за утечки 🔗
Apple launches MLX — an efficient machine learning framework specifically designed for Apple silicon (i.e. your laptop!). MLX design is inspired by existing frameworks such as PyTorch, Jax, and ArrayFire. However, MLX adds support for a unified memory model, which means arrays live in shared memory and operations can be performed on any of the supported device types without performing data copies.
https://www.computerworld.com/article/3711408/apple-launches-mlx-machine-learning-framework-for-apple-silicon.html
https://www.computerworld.com/article/3711408/apple-launches-mlx-machine-learning-framework-for-apple-silicon.html
Media is too big
VIEW IN TELEGRAM
Если это и правда будет работать примерно так, без натужного черри-пикинга, то это отвал башки. Мультимодальность в основе (а не как связующий костыль) — это круто.
Немного потестировал Gemini Pro с другими крупнейшими LLM. Никаких сюрпризов, все так же, как и было до этого. Безусловным победителем оказался (сюрприз!) GPT 4 Turbo, за ним идут GPT 4 Bing / Anthropic Claude 2.1. Результат гугловского апгрейда Барда пока не очень впечатляет, в большинстве случаев он отвечает даже хуже Claude, тягаться может разве что с GPT 3.5 Turbo (но тут зависит от задачи, необходимости свежих данных, и это еще пока не Gemini Ultra). Скриншоты с примерами в приложенном архиве:
1. Вопрос про количество бананов:
GPT 3.5 Turbo — ❌ (логическая ошибка)
GPT 4 Turbo — ✅ (отлично)
Gemini Pro / Bard — ❌ (логическая ошибка)
GPT 4 Bing — ❌ (почти ОК, но ошибка в логике)
Anthropic Claude 2.1 — ✅ (отлично)
2. Простая арифметика с порядком операций:
GPT 3.5 Turbo — ❌ (полный провал)
GPT 4 Turbo — ✅ (отлично)
Gemini Pro / Bard — ✅ (отлично)
GPT 4 Bing — ✅ (корявенький вывод)
Anthropic Claude 2.1 — ✅ (отлично)
3. Логика с подсчетом слоновьих ног:
GPT 3.5 Turbo — ✅ (отлично)
GPT 4 Turbo — ✅ (отлично)
Gemini Pro / Bard — ❌ (полный провал, консистентно)
GPT 4 Bing — ✅ (отлично)
Anthropic Claude 2.1 — ✅ (отлично)
4. Шутка Маска с рогозинским батутом:
GPT 3.5 Turbo — ❌ (полный провал)
GPT 4 Turbo — ✅ (отлично)
Gemini Pro / Bard — ✅ (отлично)
GPT 4 Bing — ✅ (отлично)
Anthropic Claude 2.1 — ❌ (полный провал)
5. Вывод слов с заданными параметрами:
GPT 3.5 Turbo — ❌
GPT 4 Turbo — ✅
Gemini Pro / Bard — ❌
GPT 4 Bing — ❌
Anthropic Claude 2.1 — ➖ (почти, но нет)
#llm
1. Вопрос про количество бананов:
GPT 3.5 Turbo — ❌ (логическая ошибка)
GPT 4 Turbo — ✅ (отлично)
Gemini Pro / Bard — ❌ (логическая ошибка)
GPT 4 Bing — ❌ (почти ОК, но ошибка в логике)
Anthropic Claude 2.1 — ✅ (отлично)
2. Простая арифметика с порядком операций:
GPT 3.5 Turbo — ❌ (полный провал)
GPT 4 Turbo — ✅ (отлично)
Gemini Pro / Bard — ✅ (отлично)
GPT 4 Bing — ✅ (корявенький вывод)
Anthropic Claude 2.1 — ✅ (отлично)
3. Логика с подсчетом слоновьих ног:
GPT 3.5 Turbo — ✅ (отлично)
GPT 4 Turbo — ✅ (отлично)
Gemini Pro / Bard — ❌ (полный провал, консистентно)
GPT 4 Bing — ✅ (отлично)
Anthropic Claude 2.1 — ✅ (отлично)
4. Шутка Маска с рогозинским батутом:
GPT 3.5 Turbo — ❌ (полный провал)
GPT 4 Turbo — ✅ (отлично)
Gemini Pro / Bard — ✅ (отлично)
GPT 4 Bing — ✅ (отлично)
Anthropic Claude 2.1 — ❌ (полный провал)
5. Вывод слов с заданными параметрами:
GPT 3.5 Turbo — ❌
GPT 4 Turbo — ✅
Gemini Pro / Bard — ❌
GPT 4 Bing — ❌
Anthropic Claude 2.1 — ➖ (почти, но нет)
#llm
👍2