Media is too big
VIEW IN TELEGRAM
Протестировал ProRes, прямо очень хорош!
Media is too big
VIEW IN TELEGRAM
Нарезал самого интересного из “Stanford eCorner: The Possibilities of AI — Sam Altman”. Полностью на ютубе.
#LLM
#LLM
👍1
This media is not supported in your browser
VIEW IN TELEGRAM
Из Rabbit R1 (работающего под управлением Android 13) выковыряли apk-шку приложения и запустили ее на обычном смартфоне.
Соответственно, ждем запуска Doom на самом Rabbit R1.
🔗 emergetools.com/deep-dives/rabbit-r1
#AIslop #LLM
Соответственно, ждем запуска Doom на самом Rabbit R1.
🔗 emergetools.com/deep-dives/rabbit-r1
#AIslop #LLM
😁1
Анонимный телеграм-канал
Все сложно, конечно. Но все равно, впечатляющий прогресс, совсем недавно и об этом то мечтать было нельзя. #llm
This media is not supported in your browser
VIEW IN TELEGRAM
Прошло немногим более года, уже значительно лучше и быстрее. Llama 3 / 8b на домашнем компьютере (видео на скорости 1х).
#llm
#llm
Анонимный телеграм-канал
Любимая тема у СМИ — это сообщения об аномально жаркой / холодной погоде. Каждый год без исключений бьются все мыслимые исторические рекорды «за последние сто лет». Это приятный инфоповод — он всегда под рукой — берешь историю измерений температуры за последние…
7 мая, ТАСС: Выпадение снега в мае для Москвы — обычная история, подобные осадки отмечались в столице, например, в 2017, 2019 и 2022 годах.
Анонимный телеграм-канал
Китайцы выпустили в открытый доступ DeepSeek, весьма способную LLM на 67B параметров (несмотря на это, такие открытые модели уже приближаются по возможностям к GPT-3.5). В целом она заточена под китайский и английский языки, но неплохо справляется и с русским.…
Китайцы заапдейтили DeepSeek:
We are excited to announce DeepSeek-V2.
Key Upgrade Highlights:
* Places top 3 in AlignBench, surpassing GPT-4 and close to GPT-4-Turbo.
* Ranks top-tier in MT-Bench, rivaling LLaMA3-70B and outperforming Mixtral 8x22B.
* Specializes in math, code and reasoning.
* Context window supported: 128K (Open-Source Model) / 32K (Online Service)
Features:
* Innovative architecture with 21B active parameters out of 236B.
* Unbeatable API pricing, while remaining truly open-source and commercial-free.
🔗 deepseek.com
#llm
We are excited to announce DeepSeek-V2.
Key Upgrade Highlights:
* Places top 3 in AlignBench, surpassing GPT-4 and close to GPT-4-Turbo.
* Ranks top-tier in MT-Bench, rivaling LLaMA3-70B and outperforming Mixtral 8x22B.
* Specializes in math, code and reasoning.
* Context window supported: 128K (Open-Source Model) / 32K (Online Service)
Features:
* Innovative architecture with 21B active parameters out of 236B.
* Unbeatable API pricing, while remaining truly open-source and commercial-free.
🔗 deepseek.com
#llm