Forwarded from Креативный совет
😂 Бесконечные мемы на любые темы
Нашел сервис @AIMemeArenaBot который делает для вас мемы по заданным вам темам
Из прикольного бот дает вам на сравнение генерации двух случайных! мемодельных моделек и вы можете выбрать лучшую
Я поделал вам на радость немного мемов о нашем сообществе, доступном в боте @how2ai_bot
Нашел сервис @AIMemeArenaBot который делает для вас мемы по заданным вам темам
Из прикольного бот дает вам на сравнение генерации двух случайных! мемодельных моделек и вы можете выбрать лучшую
Я поделал вам на радость немного мемов о нашем сообществе, доступном в боте @how2ai_bot
🥱7👍5🔥3❤2
Forwarded from Креативный совет
🔥Большое обновление сайта Adobe Firefly
Я почитал и потестил обновление Светлячка и выводы у меня неоднозначные, сначала чуть расскажу про комерческую суть этого релиза:
Главное - это новые тарифные планы. Спасибо, что не забрали баллы у обычных юзеров, а просто дали возможность неподписчикам покупать подписку только на нейросети.
Но всё это подалось под соусом того, что они запустили "First Commercially Safe Video Model" то есть модель обученную только на коммерчески пригодных материалах.
По сути этим Адоби пытается убедить всех, что их нейросети заслуживают 10$/мес., и всем этим они начинают конкурировать с сота моделями, а не просто выполнять функцию "средненьких, но зато встроенных в экосистему" нейронок.
📹Видеомодель знатно улучшилась и теперь можно даже генерировать видео между двух кадров (ждем в премьере генерацию между двух видео)
Но по большей части улучшения касаются функционала, качество генерации, увы, не дало какого-то серьезного скачка
Зато наконец-то завезли интеграцию фаерфлая с прожектом нео, теперь можно из 3д делать картинки и видео, хотя в креа оно было уже месяц назад, да и в старом фаерфлае эта возможность тоже по сути была
Лучше бы активнее интегрировали ии в старые продукты...😬
@how2ai @creadvice #adobe
Я почитал и потестил обновление Светлячка и выводы у меня неоднозначные, сначала чуть расскажу про комерческую суть этого релиза:
Главное - это новые тарифные планы. Спасибо, что не забрали баллы у обычных юзеров, а просто дали возможность неподписчикам покупать подписку только на нейросети.
Но всё это подалось под соусом того, что они запустили "First Commercially Safe Video Model" то есть модель обученную только на коммерчески пригодных материалах.
По сути этим Адоби пытается убедить всех, что их нейросети заслуживают 10$/мес., и всем этим они начинают конкурировать с сота моделями, а не просто выполнять функцию "средненьких, но зато встроенных в экосистему" нейронок.
📹Видеомодель знатно улучшилась и теперь можно даже генерировать видео между двух кадров (ждем в премьере генерацию между двух видео)
Но по большей части улучшения касаются функционала, качество генерации, увы, не дало какого-то серьезного скачка
Зато наконец-то завезли интеграцию фаерфлая с прожектом нео, теперь можно из 3д делать картинки и видео, хотя в креа оно было уже месяц назад, да и в старом фаерфлае эта возможность тоже по сути была
Лучше бы активнее интегрировали ии в старые продукты...
@how2ai @creadvice #adobe
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9❤🔥1❤1
Улучшились ризонинг модели опен аи:
о1 и о3 мини уже ждут ваших изображений и файлов,
а лимиты на использование о3 мини-хай по подписке плюс выросли до 50 в день🔥
Мы этого ждем...
Sama пообещал раздать DeepResearch на другие тиры. 10 запросов для Plus и 2 запроса для Free ChatGPT.
@how2ai #openai
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥29👍8❤1
А еще Sama поделился родмапой. OpenAI осознали, что нагородили много странных и непонятных обывателю моделей и названий. Вот, что сейчас известно:
1) Следующий релиз – GPT 4.5.
Модель, которую мы внутренне называли Orion. Это наша последняя не ризонинг модель.
2) GPT-5 – солянка из модели о3 и "a lot of our technology". Будет выпущена и в АПИ и в интерфейс. Отдельно о3 выдаваться не будет.
3) Бесплатный тир ChatGPT получит неограниченный доступ GPT-5 при стандартных настройках. Plus и Pro пользователи получат эту модель с большим компьютом.
УХ!
@how2ai #дядя_д
Please open Telegram to view this post
VIEW IN TELEGRAM
2🔥24👍10❤7
Вот ссылки на опенсорс решения и статьи, про которые я говорил в ролике:
- https://github.com/nickscamara/open-deep-research
- https://github.com/dzhng/deep-research
- 5 steps to agi
@how2ai #openai
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤12👍5🔥4
Вот для чего компания рекомендует использовать серию о:
1) Решение запутанных задач / задач с неполной информацией, плохой формулировкой.
2) "Поиск иголки в стоге сена" – вытащить нужное из большого массива неструктурированных данных.
3) Поиск взаимосвязей в большом массиве данных.
4) Разработка стратегии и планирвоание.
5) Ризонинг на основе визуальной информации.
6) Дебаг, улучшение и написание кода.
7) Оценка и бенчмаркинг для других моделей.
На картинке – пример системы из нескольких моделей. Видимо, сделанной на освнове фреймвока OpenAI Swarm
Подробная документация тут. Изучаем!
@how2ai #openai #дядя_д
Please open Telegram to view this post
VIEW IN TELEGRAM
👍16🔥7
This media is not supported in your browser
VIEW IN TELEGRAM
– 5 бесплатных запросов в день
– На бенчмарке SimpleQA точность – 93,9% (против gpt4o – 38%)
– На Humanity Last Exam – 21,1% (26,6% у Deep Research OpenAI)
– Можно экспортировать итоговый отчет в формат PDF
– Сам речерч занимает до 3 минут
Анонс
@how2ai #дядя_д
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥33❤7😁6👍4
Хватит учить нейронки на парах видео + текстовое описание видео!
Намного интереснее учить их на парах "данные с энцефалографий" + "текст, который печатают пальцы в этот момент"
Именно так обучаются thought-2-action модели (мысль-в-действие), которые пригодятся нам для управления чем-угодно с помощью мысли.Увы, пока хорошо получается управлять только своим телом
На самом деле, пока запрещенная корпорация разработала только brain2qwerty модель (мысль-в-текст), которая выдает лишь 32% ошибок в среднем, а для некоторых испытуемых она могла воссоздавать 100% токенов верно
Круто тут то, что не надо никаких имплантов, мысли читаются просто от надетой ээг+мэг "шапочки" и с помощью LLM текст не просто пишется, но предсказывается, что сильно повышает точность работы устройства
Будущее уже рядом, осталось уменьшить размер "шапочки" до размера обычной шапки или хотя бы мотошлема и вот тебе чтение мыслей, люди, управляющиее умом армией роботов, вживление идей, псиоп и тд, всем хороших выходных
@how2ai #игорян
Намного интереснее учить их на парах "данные с энцефалографий" + "текст, который печатают пальцы в этот момент"
Именно так обучаются thought-2-action модели (мысль-в-действие), которые пригодятся нам для управления чем-угодно с помощью мысли.
На самом деле, пока запрещенная корпорация разработала только brain2qwerty модель (мысль-в-текст), которая выдает лишь 32% ошибок в среднем, а для некоторых испытуемых она могла воссоздавать 100% токенов верно
Круто тут то, что не надо никаких имплантов, мысли читаются просто от надетой ээг+мэг "шапочки" и с помощью LLM текст не просто пишется, но предсказывается, что сильно повышает точность работы устройства
Будущее уже рядом, осталось уменьшить размер "шапочки" до размера обычной шапки или хотя бы мотошлема и вот тебе чтение мыслей, люди, управляющиее умом армией роботов, вживление идей, псиоп и тд, всем хороших выходных
@how2ai #игорян
👍17❤4😱3🔥1
Новые баталии Маска и Альтмана, пробуждение Европы и дорожная карта OpenAI
📱 Выпуск новостей уже на канале – https://www.youtube.com/watch?v=KKR79l-U5vw
@how2ai
@how2ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9🔥3❤2