Grok 3 клево 👍
Состоялась презентация новой модели, все добротно. Чтобы не пересказывать пресс-релиз, можно сказать, что появилась модель на подобии GPT-o1 Pro, только за 22$ в месяц по подписке X Premium +
Grok 3 сейчас одна из фронтирных моделей по текстовым бенчмаркам, где результаты колебляться от фактора «как долго будет думаться ответ». Ризонинг есть, при этом он поделен на базовый Think и Big Brain. Первый чуть меньше думает и результаты проще, а второй дольше размышляет и результаты лучше. На демо показали, как можно сделать комбинацию игры Тетриса и 3 в ряд, заработало хорошо. Еще интересно, что в промпте использовали эмоциональный промптинг, хе-хе
Ну и последняя фича — DeepSearch. Этакий DeerResearch, только по базе данных твитера и других источников
Опробовать Grok 3 можно примерно через неделю с новыми фичами на iOS приложении и на сайте
🤖 InNeuralNetwork
Состоялась презентация новой модели, все добротно. Чтобы не пересказывать пресс-релиз, можно сказать, что появилась модель на подобии GPT-o1 Pro, только за 22$ в месяц по подписке X Premium +
Grok 3 сейчас одна из фронтирных моделей по текстовым бенчмаркам, где результаты колебляться от фактора «как долго будет думаться ответ». Ризонинг есть, при этом он поделен на базовый Think и Big Brain. Первый чуть меньше думает и результаты проще, а второй дольше размышляет и результаты лучше. На демо показали, как можно сделать комбинацию игры Тетриса и 3 в ряд, заработало хорошо. Еще интересно, что в промпте использовали эмоциональный промптинг, хе-хе
Ну и последняя фича — DeepSearch. Этакий DeerResearch, только по базе данных твитера и других источников
Опробовать Grok 3 можно примерно через неделю с новыми фичами на iOS приложении и на сайте
🤖 InNeuralNetwork
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Claude 3.7 Sonnet от Anthropic — праздник для мат задач
Супер впечатлён гибридным режимом мышления: модель сама выбирает между быстрым, точным ответом и глубоким, аналитическим разбором запроса. Особенно радует функция extended thinking, когда можно наблюдать, как шаг за шагом строится решение, что даёт дополнительную прозрачность и контроль.
Еще завезли интеграцию с GitHub и возможность редактировать код через Claude Code в реальном времени. Жду, когда выкатят в разных IDE.
Я настоятельно рекомендую воспользоваться им хотя бы в пользовательской версии. Сейчас доступно, кстати, бесплатно
🤖 InNeuralNetwork
Супер впечатлён гибридным режимом мышления: модель сама выбирает между быстрым, точным ответом и глубоким, аналитическим разбором запроса. Особенно радует функция extended thinking, когда можно наблюдать, как шаг за шагом строится решение, что даёт дополнительную прозрачность и контроль.
Еще завезли интеграцию с GitHub и возможность редактировать код через Claude Code в реальном времени. Жду, когда выкатят в разных IDE.
Я настоятельно рекомендую воспользоваться им хотя бы в пользовательской версии. Сейчас доступно, кстати, бесплатно
🤖 InNeuralNetwork
Дольше думаем, глубже анализируем 💡
2 клёвые новости за недавнее время — DeepResearch в ChatGPT стал доступен в каждом тире платной подписки. Базово дают 10 запросов в месяц, а если Pro подписка за 200$ в месяц, то 120. Работает прекрасно, чтобы найти ответы на самые заковыристые запросы
Можно ещё оформить подписку на Perplexity на год, кхм, за 300 рублей. Там тоже есть DeepResearch и больше источников, но качество алгоритма познается в сравнении. Тем не менее, рекомендую воспользоваться через покупку промокода на Plati (Серёжа, спасибо за новость!)
🤖 InNeuralNetwork
2 клёвые новости за недавнее время — DeepResearch в ChatGPT стал доступен в каждом тире платной подписки. Базово дают 10 запросов в месяц, а если Pro подписка за 200$ в месяц, то 120. Работает прекрасно, чтобы найти ответы на самые заковыристые запросы
Можно ещё оформить подписку на Perplexity на год, кхм, за 300 рублей. Там тоже есть DeepResearch и больше источников, но качество алгоритма познается в сравнении. Тем не менее, рекомендую воспользоваться через покупку промокода на Plati (Серёжа, спасибо за новость!)
🤖 InNeuralNetwork
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Силиконовый Мешок
https://teletype.in/@prompt_design/Deep-Research
Почти потратил свой лимит на Deep Research но все же получил нужное качество на выходе.
Самое важное, это заморочиться с хорошим промптом, поэтому сделал для вас подробную инструкцию на базе своих заметок.
Почти потратил свой лимит на Deep Research но все же получил нужное качество на выходе.
Самое важное, это заморочиться с хорошим промптом, поэтому сделал для вас подробную инструкцию на базе своих заметок.
Teletype
Универсальное руководство по составлению промптов для Deep Research
Ниже приведен базовый шаблон, который можно копировать и адаптировать под свои задачи:
Приходите (виртуально) на мое выступление про нейросети в бизнесе (и не только). Даже можно на выбор:
13 марта буду открывать конференцию NEXT AI: Точка роста. Там поделюсь, как оценить применение нейросетей в своей жизни, какие есть особенности публичного использования нейростей, а также поделюсь своим сетапом нейросетей. На конференции от других авторов будут еще выступления касаемо социальных сетей, создания контента и заработка. Если что-то из этих ключевых слов попадает в ваши глаза чаще, чем присутствие в этом тексте, рекомендую к посещению!
17 марта посещу конференцию Skillbox про нейросети. На ней рассказжу о том же, как нейросети влияют на бизнес. Чтобы не повторяться, я еще покажу особенности прототипирования различных решений, так что хоть презентация будет та же, выступление будет отличаться. Еще на конференции будет много клевых выступлений про чат-боты, еком и дизайн. Регистрируйтесь и приходите — будет здорово!
13 марта буду открывать конференцию NEXT AI: Точка роста. Там поделюсь, как оценить применение нейросетей в своей жизни, какие есть особенности публичного использования нейростей, а также поделюсь своим сетапом нейросетей. На конференции от других авторов будут еще выступления касаемо социальных сетей, создания контента и заработка. Если что-то из этих ключевых слов попадает в ваши глаза чаще, чем присутствие в этом тексте, рекомендую к посещению!
17 марта посещу конференцию Skillbox про нейросети. На ней рассказжу о том же, как нейросети влияют на бизнес. Чтобы не повторяться, я еще покажу особенности прототипирования различных решений, так что хоть презентация будет та же, выступление будет отличаться. Еще на конференции будет много клевых выступлений про чат-боты, еком и дизайн. Регистрируйтесь и приходите — будет здорово!
Forwarded from Силиконовый Мешок
Сделал для вас перевод из блога OpenAI, что за инструменты они запустили для ИИ-Агентов. Мне кажется, что в конце 2025 мы будем смеяться над неуклюжим и медленным Manus’ом начала года. Все развивается очень быстро, слишком.
https://teletype.in/@prompt_design/new-tools-for-building-agents
https://teletype.in/@prompt_design/new-tools-for-building-agents
Teletype
Новые инструменты для создания ИИ-Агентов от OpenAI
Оригинал тут
После выхода 4o Image Generator задумался: почему нет нормального стандарта для проверки цифровых данных? Сейчас любую jpeg можно выдать за настоящую, причём с минимальными усилиями. Несколько моих примеров за 1,5 недели тестов:
📱 Верификация профиля по фото занимает 1-2 запроса вместо мясорубки с Flux и инпейнтом. Галочка за минуту. Модераторы, не серчайте 🥲
📕 Студенческий билет для скидки в спортзал раньше фотошопил вручную (менял даты). Сейчас надо написать текстом содержание, приложить фотку студака и своего лица, а дальше подождать минутку и уже сэкономилось 30т на абонемент
📷 Фото на визу пока не идеально в один запрос проходит, но мелкие черты легко доправить. Распечатал вместо салонной фотосессии, сдал в консульстве — приняли без замечаний
Пускай нужно намного меньше усилий для генерации изображений, мелкие правки ещё остаются. Кто еще может поделиться своими необычными примерами из генератора картинок в ChatGPT?👀
🤖 InNeuralNetwork
Пускай нужно намного меньше усилий для генерации изображений, мелкие правки ещё остаются. Кто еще может поделиться своими необычными примерами из генератора картинок в ChatGPT?
🤖 InNeuralNetwork
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
В июне еду на фестиваль «Тех-Френдли Викенд» в Нижнем Новгороде. Выступать не буду, зато планирую увлечённо посещать техно-доклады и разные приколы: от нейросетей-сценаристов до гастроуикенда и воздушных шаров. В общем, всё интересное и красивое.
Фестиваль пройдёт с 5 по 8 июня. Если тоже заинтересовало, следите за анонсом регистрации на фестиваль
Фестиваль пройдёт с 5 по 8 июня. Если тоже заинтересовало, следите за анонсом регистрации на фестиваль
Бизнесово подумал про омнимодальность
Наблюдаю за картинками с ChatGPT, где генерятся животные как люди, люди как игрушки, а игрушки снова как люди и так до бесконечности. Понял, что успех подобной фичи заложен в комбинации языкового запроса с визуальным (или любой другой формой контента), что обозначается с прикладного✨ омнимодальностью ✨
Следите за руками:
Выход новой технической фичи априори не меняет мою жизнь (пользователя). Я живу своими процессами, что-то новое непонятное пробовать не хочу, потому что и так процессы работают. Чтобы обратить мое внимание, тут надо зайти через радикальное решение проблемы, либо через фан. В первом случае я меняю что-то в своей жизни (знакомство с фичей), что оптимизирует процесс на порядок, а во втором случае просто получаю развлекуху, которую показываю друзьям (потенциальные новые пользователи). И как думаю, капитански наберитесь воздуха, омнимодальность это делает сразу через фана и решение проблемы.
Например, я понял из генератора изображений ChatGPT, что тот учитывает визуальный и текстовый контекст, от чего я могу запрашивать у него разные приколы и показывать другим людям. Пускай мне захотелось определить, какой я суп и почему именно такой. ChatGPT минутку попыхтит над запросом и выдаст персонализированный ответ, где даёт фан и решение проблемы. А далее я показываю это другим людям, что влечёт цепную реакцию «надо сделать тоже самое»▶️ «надо сделать что-то новое на подобии» ▶️ «надо попробовать новую фичу того же сервиса». Очень просто, но цифры того же OpenAI о миллионах новых пользователей за последнее время об этом говорят из-под плавящихся серверов.
Омнимодальность раскрывает бесконечную песочницу, которая нативно показывает, почему та или иная фича нужна мне. При этом сервис необязательно должен быть песочницей или омнимодальным, чтобы привлечь внимание (Perplexity, я тебя очень люблю!), просто это повышает кардинальный интерес. Или я один такой?
🤖 InNeuralNetwork
Наблюдаю за картинками с ChatGPT, где генерятся животные как люди, люди как игрушки, а игрушки снова как люди и так до бесконечности. Понял, что успех подобной фичи заложен в комбинации языкового запроса с визуальным (или любой другой формой контента), что обозначается с прикладного
Следите за руками:
Выход новой технической фичи априори не меняет мою жизнь (пользователя). Я живу своими процессами, что-то новое непонятное пробовать не хочу, потому что и так процессы работают. Чтобы обратить мое внимание, тут надо зайти через радикальное решение проблемы, либо через фан. В первом случае я меняю что-то в своей жизни (знакомство с фичей), что оптимизирует процесс на порядок, а во втором случае просто получаю развлекуху, которую показываю друзьям (потенциальные новые пользователи). И как думаю, капитански наберитесь воздуха, омнимодальность это делает сразу через фана и решение проблемы.
Например, я понял из генератора изображений ChatGPT, что тот учитывает визуальный и текстовый контекст, от чего я могу запрашивать у него разные приколы и показывать другим людям. Пускай мне захотелось определить, какой я суп и почему именно такой. ChatGPT минутку попыхтит над запросом и выдаст персонализированный ответ, где даёт фан и решение проблемы. А далее я показываю это другим людям, что влечёт цепную реакцию «надо сделать тоже самое»
Омнимодальность раскрывает бесконечную песочницу, которая нативно показывает, почему та или иная фича нужна мне. При этом сервис необязательно должен быть песочницей или омнимодальным, чтобы привлечь внимание (Perplexity, я тебя очень люблю!), просто это повышает кардинальный интерес. Или я один такой?
🤖 InNeuralNetwork
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Персонализация и память в ChatGPT клево прокачались. Теперь запоминаются все данные, можно в разных чатах делать задачу. Режим Projects, правда, не совсем понятно зачем, но тесты и время покажет. Доступно пользователям с подпиской 👀
Please open Telegram to view this post
VIEW IN TELEGRAM
OpenAI дропнула новое семейство моделей GPT-4.1 — прокачанную версию GPT-4o в виде GPT-4.1, GPT-4.1 Mini и GPT-4.1 Nano. Правда, вся тусовка доступна только по API.
По заявлениям OpenAI, GPT-4.1 значительно круче GPT-4o и GPT-4o mini в написании кода. И что ещё лучше — токены стоят примерно на 25% дешевле предыдущих версий, а контекстное окно теперь разрослось до миллиона токенов. Хотя по ряду бенчмарков GPT-4.1 пока проигрывает Gemini 2.5 Pro и Claude 3.7 Sonnet.
Из занятных ещё штук:
• GPT-4.1 можно будет неделю тестить бесплатно в Windsurf
• OpenAI внезапно анонсировала отключение GPT-4.5 из API (видимо, дороговато содержать)
• Релиз GPT-5 опять перенесли на пару месяцев
• Инсайдеры шепчут, что скоро появятся ещё o4-mini, o4-mini-high и o3
Правда в пользовательский ChatGPT добавлять не планируют
По заявлениям OpenAI, GPT-4.1 значительно круче GPT-4o и GPT-4o mini в написании кода. И что ещё лучше — токены стоят примерно на 25% дешевле предыдущих версий, а контекстное окно теперь разрослось до миллиона токенов. Хотя по ряду бенчмарков GPT-4.1 пока проигрывает Gemini 2.5 Pro и Claude 3.7 Sonnet.
Из занятных ещё штук:
• GPT-4.1 можно будет неделю тестить бесплатно в Windsurf
• OpenAI внезапно анонсировала отключение GPT-4.5 из API (видимо, дороговато содержать)
• Релиз GPT-5 опять перенесли на пару месяцев
• Инсайдеры шепчут, что скоро появятся ещё o4-mini, o4-mini-high и o3
Правда в пользовательский ChatGPT добавлять не планируют
o3 и o4-mini вроде как умеют создавать новые идеи, а не переваривать старые
Основное из нововведений:
– Пишут код почти вдвое лучше, чем OpenAI-o1
– Все фичи ChatGPT работают сразу
– Еще лучше работает с аналитикой в Deep Research, а также делать комплексные задачи.
Доступ начинают раздавать уже сегодня, доступно бесплатно
Основное из нововведений:
– Пишут код почти вдвое лучше, чем OpenAI-o1
– Все фичи ChatGPT работают сразу
– Еще лучше работает с аналитикой в Deep Research, а также делать комплексные задачи.
Доступ начинают раздавать уже сегодня, доступно бесплатно
o4-mini > Google
Проверил мультульность на поиске моей самой любимой плитки шоколада, которую покупал в Болонии и не получилось после загуглить. ChatGPT тем временем меньше, чем за минуту, понял что это, где купить и какие особенности по покупке. Супер круто
🤖 InNeuralNetwork
Проверил мультульность на поиске моей самой любимой плитки шоколада, которую покупал в Болонии и не получилось после загуглить. ChatGPT тем временем меньше, чем за минуту, понял что это, где купить и какие особенности по покупке. Супер круто
🤖 InNeuralNetwork
Мой коллега проводит эксперимент: ChatGPT торгует на Мосбирже, управляя 50 000 ₽.
Каждый будний ChatGPT определяет одну акцию и сумму сделки. Затем публикуется тикер, обоснование и ссылку на портфель онлайн — всё прозрачно. И за этим всем остаётся только наблюдать как проценты скачут, а также можно понять, «что пошло не так?».
Подобный эксперимент с GPT‑4 + плагинами у меня два года назад пришлось подружить семь сервисов и бубен, что привело к +17,5% за 1,5 месяца на иностранной бирже. Сегодня — одна кнопка, правда рост чуть ниже.
Мне интересно за этим всем понять:
Следить можно на @neural_money (не инвестрекомендация)
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
Является ИИ рекомендацией?
ChatGPT торгует на российском рынке ценных бумаг за чужой счёт. Что может быть лучше?
Не является инвестиционной рекомендацией.
Не является инвестиционной рекомендацией.