OpenAI предлагает заменить поиск в браузере на ChatGPT🗯
Помянем Google 😳
Это серьёзная ставка🎲
Google будет сопротивляться всеми силами смотри фото 2😱
Это серьёзная ставка
Google будет сопротивляться всеми силами смотри фото 2
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3😱2🙏2🔥1
Илон Маскович Маск дал доступ к GROK 3 всем бесплатно: «пока серваки не упадут » 🤪
Клик, клац, тап👇
x.com/i/grok
Клик, клац, тап
x.com/i/grok
Please open Telegram to view this post
VIEW IN TELEGRAM
😁1👀1
DeepSeek выкладуывают делятся кодом в OpenSource 🍑
Жду их первый релиз с фронтом, который настолько минималистичный, чтоего можно считать концептуальным искусством 😂
В вообще вот полный перевод поста:
Жду их первый релиз с фронтом, который настолько минималистичный, что
В вообще вот полный перевод поста:
🚀День 0: Разогрев перед #OpenSourceWeek!
Мы – маленькая команда @deepseek_ai, исследующая AGI.
Со следующей недели мы открываем 5 репозиториев,
делясь нашим небольшим, но искренним прогрессом с полной прозрачностью.
Эти скромные строительные блоки нашего онлайн-сервиса
документированы, развернуты и проверены в боевых условиях.
Как часть open-source сообщества, мы верим,
что каждая строка кода, которой мы делимся, становится
коллективным импульсом, ускоряющим путь вперед.
Ежедневные релизы уже скоро.
Никаких башен из слоновой кости —
только чистая гаражная энергия и инновации, движимые сообществом.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2👀1
🚀 Локально запускаем DeepSeek R1 8B – тестируем производительность!
💡 YCombinator заявил, что в этом 2025 году фокус на локальные LLM. Интересно, насколько хорошо они работают в реальных условиях?
🔬 Тестируем DeepSeek R1 8B – сравнительно небольшую модель (~4-5 ГБ VRAM), чтобы понять, на каких машинах её можно запускать и какая будет скорость генерации.
⚡ Норма для комфортного использования – 20 токенов/сек. Давайте посмотрим, какие железки справляются!
📌 Тестовая база:
🔹 M1 (16 ГБ RAM) – референсный уровень.
🔹 M4 – в 2 раза быстрее M1! Причём Mac Mini на M4 стоит порядка $600.
🔹 RTX 3060 – уже в 5 раз быстрее M1 и в 2.5 раза быстрее M4. Выдаёт 46 tok/sek – это уже очень комфортная скорость работы.
🔹 RTX 3090 – в 10 раз быстрее M1! Можно использовать с кучей клиентов, превращая ПК в серверное решение. Также позволяет раннить более качественные модели модели 14B или даже 33B.
💡Вывод: Всё уже готово для запуска компактных локальных LLM на обычныых клиентских устройствах, а через 3-4 года - может и средних по размеру моделей. 🚀
Подумайте что будет, когда их начнуть объединять (например в сеть) для расчётов😘
💡 YCombinator заявил, что в этом 2025 году фокус на локальные LLM. Интересно, насколько хорошо они работают в реальных условиях?
🔬 Тестируем DeepSeek R1 8B – сравнительно небольшую модель (~4-5 ГБ VRAM), чтобы понять, на каких машинах её можно запускать и какая будет скорость генерации.
⚡ Норма для комфортного использования – 20 токенов/сек. Давайте посмотрим, какие железки справляются!
📌 Тестовая база:
🔹 M1 (16 ГБ RAM) – референсный уровень.
🔹 M4 – в 2 раза быстрее M1! Причём Mac Mini на M4 стоит порядка $600.
🔹 RTX 3060 – уже в 5 раз быстрее M1 и в 2.5 раза быстрее M4. Выдаёт 46 tok/sek – это уже очень комфортная скорость работы.
🔹 RTX 3090 – в 10 раз быстрее M1! Можно использовать с кучей клиентов, превращая ПК в серверное решение. Также позволяет раннить более качественные модели модели 14B или даже 33B.
*важно отметить про квантование моделей и что 33b 4bit требует 20–30 ГБ VRAM, а 70b 4bit - очень большая модель требует уже 100-120Гб VRAM и её хватает для большинства даже сложных задачек на Reasining моделях вроде R1.
💡Вывод: Всё уже готово для запуска компактных локальных LLM на обычныых клиентских устройствах, а через 3-4 года - может и средних по размеру моделей. 🚀
Подумайте что будет, когда их начнуть объединять (например в сеть) для расчётов
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
OpeanAI показала как билдить агенты при помощи новых моделей:
- GPT-4o search preview
- GPT-4o mini search preview
Которые почти не ошибаются с ответами на вопросы по сравнению с текущими моделями OpenAI вроде 4o, o3-mini которые оказались...🔴
Так же они отдали API для Computer Use😎
И показали инструмент Traces - подобие LangSmith от Langchain, помянем единственный источник дохода LangChain ☠️
OpenAI по сути пошла за стартапами которые делаютхорошие востребованные фреймворки, но не покупать, а тупо повторять и отжирать рынок под себя 🤣
- GPT-4o search preview
- GPT-4o mini search preview
Которые почти не ошибаются с ответами на вопросы по сравнению с текущими моделями OpenAI вроде 4o, o3-mini которые оказались...
Так же они отдали API для Computer Use
И показали инструмент Traces - подобие LangSmith от Langchain, помянем единственный источник дохода LangChain ☠️
OpenAI по сути пошла за стартапами которые делают
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2👍1
HubLab.ai – Ivan Kononov
В ближайшие 3-6 месяцев, Al будет генерировать 90% кода, и через 12 месяцев почти весь код будет сгенерирован ИИ - CEO ANTHROPIC Dario Amodei
В комментариях спросили моё мнение и оно не уместилось в комментарий, поэтому вот мои мысли:
Думаю что сейчас все упускают качество и правдивость, точность ответов от LLM как метрику.
На вчерашней презентации OpeanAI показали модели, которые сильно подтянулись по SimpleQA accuracy, думаю что если прогресс будет идти с той же скоростью, то обычный код(скрипты, веб-сайтики, простые функции и куски кода) мы и правда перестанем писать, но всё-равно будем тратить кучу времени чтобы понять, как он работает. Не говоря про оптимизации, архитектуру, большие системы, деплой. Это как с гуманоидными роботами которые все сейчас строят: IT мир построен под человека, деже не смотря на наличие кучи API и интеграций.
Ситуация похожа на исчезновение черчения вручную: появились CAD-системы которые помогают нам даже моделировать процессы нагрузки конструкций. Но инженер, который понимает что происходит - всё равно нужен. Генеративный 3D дизайн - это вообще давно существующая область. LLM - это тоже пока просто инструмент без воли и желания.
Да, есть попытки сделать агентов которые завязаны на какие-то рыночные метрики(CTR, CAC, LTV) и будут сами итерировать версии продуктов, но... думаю вот до полностью автономных систем ещё 3-5 лет, если не случится серьёзных прорывов. А это значит, что сама вероятность что такие системы появятся пока довольно низкая.
Поясню ход своих мыслей тут:
если до чего-то 3 мес - мы знаем как это сделать или уже сделали и тестим.
Если 1 год - мы знаем что нужно развить и улучшить, куда двигаться, у нас есть план.
5+ лет - мы думаем, что технологии достигнут необходимых нам результатов, но это предположение.
👍8🔥3
OpenAI релизнула самые точные модели распознавания речи
GPT-4o-transcribe и
GPT-4o-mini-transcribe
Уровень ошибок 2% и 3% соответственно🤔
Это значительно превосходит предыдущие модели, такие как whisper-large-v2, whisper-large-v3🚀
Для некоторых языков прирост точности очень существенный.
GPT-4o-transcribe и
GPT-4o-mini-transcribe
Уровень ошибок 2% и 3% соответственно
Это значительно превосходит предыдущие модели, такие как whisper-large-v2, whisper-large-v3
Для некоторых языков прирост точности очень существенный.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5🔥5
This media is not supported in your browser
VIEW IN TELEGRAM
Google показал, что языковые модели (LLM), несмотря на статистический подход к языку, формируют эмбеддинги, удивительно схожие по геометрии и последовательности активаций с нейронными паттернами человеческого мозга во время восприятия и генерации речи.
Подробнее тут: https://research.google/blog/deciphering-language-processing-in-the-human-brain-through-llm-representations/
Подробнее тут: https://research.google/blog/deciphering-language-processing-in-the-human-brain-through-llm-representations/
👀3🔥2
Мне выдали доступы Manus 🍑😂
Дада, тому самому за $10,000-20,000 долларов 💸 про которого ходили слухи и якобы продавали инвайты 💅
Короче агент Manus (НЕ путать с агентом Anus) - это не Deep Research, это ещё и OpenAI Operator.
Очень круто сделано, даже с телефона доступен весь функционал 🔥😠
Закинул в него запрос по своей теме в Аспирантуре, как ответит - отпишу круче ли он DeepResearch от OpenAI в плане поиска информации 💁
Но уже сейчас могу сказать, то он не для этого в первую очередь, а для выполнения тасок автономно 🤖
Дада, тому самому за $10,000-20,000 долларов 💸 про которого ходили слухи и якобы продавали инвайты 💅
Короче агент Manus (НЕ путать с агентом Anus) - это не Deep Research, это ещё и OpenAI Operator.
OpenAI Operator и Manus это по сути удаленный браузер который использует VISION-LMM или VLM для просмотра запущенного инстанса🌐 Google Chrome, который можно остановить, вмешаться, залогиниться куда-нибудь например и отдать обратно контроль.
Очень круто сделано, даже с телефона доступен весь функционал 🔥
Закинул в него запрос по своей теме в Аспирантуре, как ответит - отпишу круче ли он DeepResearch от OpenAI в плане поиска информации 💁
Но уже сейчас могу сказать, то он не для этого в первую очередь, а для выполнения тасок автономно 🤖
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6😱1
Ходят слухи что OpenAI скоро выпустит GPT 4.1 👀
При том что есть модели: GPT-4o, GPT-o3, GPT-4.5, GPT-o1-Pro...
Пора пилить бенчмарк по типу сколько 'r' в слове "strawberry" только про названия моделей OpenAI🔥
При том что есть модели: GPT-4o, GPT-o3, GPT-4.5, GPT-o1-Pro...
Пора пилить бенчмарк по типу сколько 'r' в слове "strawberry" только про названия моделей OpenAI
Лично я вангую - это будет моделька на замену GPT-4, А не GPT-4o.
Please open Telegram to view this post
VIEW IN TELEGRAM
👀2
OpenAI GPT-4.1 выпущена 🎉
Все-таки это прокачанный вариант GPT-4o
Бенчмарки хороши, модельне только хорошо кодит на Python, но и на других языках, заявляют что сильно лучше следует пользовательским инструкциям 🎠
🎉 1 миллион токенов контекста🎉
32k токенов на выход(больше, чем у 4o в 2 раза)
Дешевле чем 4o
Так же появилась модель Nano, которая тупее 4o-mini, это интересно 🤔
Все-таки это прокачанный вариант GPT-4o
Бенчмарки хороши, модельне только хорошо кодит на Python, но и на других языках, заявляют что сильно лучше следует пользовательским инструкциям 🎠
32k токенов на выход(больше, чем у 4o в 2 раза)
Дешевле чем 4o
Так же появилась модель Nano, которая тупее 4o-mini, это интересно 🤔
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6❤2👍1