современные нейросети 🤝 старые мемы
🔥2
Мда, Хигсфилд по ходу решил выстрелить себе в ногу. Я не то, чтобы пользовался им, но теперь точно не буду.
https://t.me/strangedalle/1386
https://t.me/strangedalle/1386
Telegram
Ai molodca
Хиггсфилд и Рождественский Гринч: что известно.
Пока вы готовили оливье, Higgsfield готовил массовые баны. Подписчик @generatio_ai в Threads провел расследование, плюс вы накидали в комментарии — получается интересно.
Официальная версия: виноваты посредники…
Пока вы готовили оливье, Higgsfield готовил массовые баны. Подписчик @generatio_ai в Threads провел расследование, плюс вы накидали в комментарии — получается интересно.
Официальная версия: виноваты посредники…
👍1
This media is not supported in your browser
VIEW IN TELEGRAM
Вы все начались с этого
Ребята из MIT опубликовали видео момента оплодотворения яйцеклетки. Сразу после проникновения сперматозоида внутрь нее, по ее мембране начинают распространяться вихреобразные волны.
Ребята из MIT опубликовали видео момента оплодотворения яйцеклетки. Сразу после проникновения сперматозоида внутрь нее, по ее мембране начинают распространяться вихреобразные волны.
🔥2
Всех с наступающим!
Лично у меня есть цель на следующий год и состоит она в релизе MVP текстовой геометрической модели. Работа уже кипит, ну а результаты по ней будут выкладываться, в первую очередь, здесь.
Подробности будут на новогодних каникулах :)
Лично у меня есть цель на следующий год и состоит она в релизе MVP текстовой геометрической модели. Работа уже кипит, ну а результаты по ней будут выкладываться, в первую очередь, здесь.
Подробности будут на новогодних каникулах :)
🔥2
У ChatGPT в эти дни появилась активная функция «Ваш год». Открывается через плюсик, там где роутер моделей. И на удивление...
Это довольно интересная штука. Если вы общались на протяжении года с моделькой плюс-минус также часто, как я, то попросите её дать не обычную статистику вашего общения, а что-то более глубокое. Например, психологическую характеристику, указать на слабые или сильные стороны. И она сделает это пугающе точно. Это может как вдохновить, так иоскорбить указать на точки роста :)
Это довольно интересная штука. Если вы общались на протяжении года с моделькой плюс-минус также часто, как я, то попросите её дать не обычную статистику вашего общения, а что-то более глубокое. Например, психологическую характеристику, указать на слабые или сильные стороны. И она сделает это пугающе точно. Это может как вдохновить, так и
Forwarded from Алексей Колпиков
Сейчас уже хер поймёшь, кто куда чего. У кого-то контекст (GPT), у кого-то качество (Banana), у кого-то богатая стилистика (всё ещё MJ), кто-то точнее с антуражем (Reve), кто-то быстрее (Grok), кто-то дешевле (Qwen). И всё стремительно меняется. Вчерашний король MJ (ещё осенью все на нём сидели) вполне может вернуться, ка вот внезапно Gemini, а потом Reve и GPT c Грёком себе отвоевали обратно свои куски. Нейрогенеративный мир очень пока сложный, крайне насыщенный, и главное - тут не будет конкурентной гонки по правилам. Тут будут все против всех. И никто никогда никого не съест. Ибо такая широкая и длинная дорожка. Любой может забежать, подсожрать своего ништяка и увильнуть вовремя. И стопиццот других будут бежать, отставать, догонять… Дорожку эту обильно маслицем помыли. Там нет финишной ленты.
💯3❤1
This media is not supported in your browser
VIEW IN TELEGRAM
В крайней версии Хиггсфилда появился инструмент AI Relight, который позволяет менять направление света, его цвет и мягкость в видео.
Наконец-то можно будет посмотреть «Ранетки» в цветокоре Виндинга Рёфна.
Наконец-то можно будет посмотреть «Ранетки» в цветокоре Виндинга Рёфна.
🔥2😁1
Forwarded from Neural Shit
Наткнулся на интересную статью. Это буквально самый тупой (и одновременно гениальный) промпт-хак.
Исследователи из Google Research выяснили, что если нейронка тупит, не надо придумывать сложные цепочки рассуждений или молиться духам машины. Нужно просто повторить промпт два раза подряд. Буквально CTRL+C —> CTRL+V.
Почему? Почти все современные LLM читают слева направо. Токены в начале промпта "не видят" токенов в конце. А когда вы дублируете запрос, вторая копия промпта через механизм внимания может смотреть на первую копию целиком. Получается, что модель сразу видит весь контекст и лучше понимает задачу.
Протестили на Gemini, GPT-4o, Claude 3 и DeepSeek. По цифрам из статьи:
— Метод победил в 47 из 70 тестов (0 поражений, остальные — ничья).
— В задачах на поиск инфы в тексте точность взлетала с убогих 21% до 97%!
— Время генерации не растет
И да, работает это только на моделях с выключенным режимом размышлений, ибо модели в reasoning режиме сами повторяют себе запрос в процессе.
Промпт-инжиниринг, который мы заслужили
тут статья
Исследователи из Google Research выяснили, что если нейронка тупит, не надо придумывать сложные цепочки рассуждений или молиться духам машины. Нужно просто повторить промпт два раза подряд. Буквально CTRL+C —> CTRL+V.
Почему? Почти все современные LLM читают слева направо. Токены в начале промпта "не видят" токенов в конце. А когда вы дублируете запрос, вторая копия промпта через механизм внимания может смотреть на первую копию целиком. Получается, что модель сразу видит весь контекст и лучше понимает задачу.
Протестили на Gemini, GPT-4o, Claude 3 и DeepSeek. По цифрам из статьи:
— Метод победил в 47 из 70 тестов (0 поражений, остальные — ничья).
— В задачах на поиск инфы в тексте точность взлетала с убогих 21% до 97%!
— Время генерации не растет
И да, работает это только на моделях с выключенным режимом размышлений, ибо модели в reasoning режиме сами повторяют себе запрос в процессе.
Промпт-инжиниринг, который мы заслужили
тут статья
arXiv.org
Prompt Repetition Improves Non-Reasoning LLMs
When not using reasoning, repeating the input prompt improves performance for popular models (Gemini, GPT, Claude, and Deepseek) without increasing the number of generated tokens or latency.
🔥1
Media is too big
VIEW IN TELEGRAM
Подробный воркфлоу для создания таких потрясающих кейсов. По сути, просто Нано Банана Про и Клинг О1.
🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
Тут Дженсен Хуанг интересное сказал. И я, как работающий графический дизайнер и учащийся кодер, подтвержу его слова. Графические дизайнеры всех уровней и направлений за последние полгода практически перестали заниматься... графическим дизайном. Ну вот крафт, композитинг, двигание мышкой, вот это всё. Дизайнеры стали арт-директорами. Они больше не работают ручками, за очень редкими исключениями (подтверждающими новое правило). Весь крафт на себя забрали нейросети, в первую очередь, конечно, моя любимая Нанобанана. А дизайнеры теперь только придумывают идею, дают тз сеткам и выбирают лучший результат.
Как видится, с кодом та же тема:
Как видится, с кодом та же тема:
Если ваша цель буквально состоит в написании кода, то, возможно, вас заменит ИИ. Но цель большинства наших инженеров решать проблемы. Поэтому, чем больше у них будет времени на исследование этих не обнаруженных проблем, тем лучше для нас как для компании.
Ничто не принесло бы мне большей радости, чем если бы никто из них вообще не писал код. Чтобы они просто решали проблемы.
💩1
Тупой и одновременно гениальный лайфхак для дизайнеров, юзающих Нанобанану. Если вы выгорели и в голову не приходит ничего, то просто давайте банане абстрактные промпты. Не надо придумывать композицию, детали, идеи, динамику. Просто скажите гугловскому чуду:
И далее крутите шарманку.
"Креатив, достойный Cannes Lions / Red Dot Design Award / D&AD Awards / [etc., вставьте свое]".
И далее крутите шарманку.
🔥2
Первое серьезное достижение в новом году. За новогодние каникулы сгенерил в Джеминай >100 страниц научно-исторического фанфика крепкой средней руки.
🔥2👍1
Очередной, но действительно полезный промпт-гайд по Нанобанане. 50 вариативных промптов под все задачи.
🔥3
Давайте говорить прямо: Gemini 3 Pro в три раза лучше ChatGPT 5.2 в количестве данных для претрейна и в их поиске в инференсе.
Это критичное преимущество в задачах поиска информации и креативной генерации.
При том, что в линейной алгебре (не в геометрической!) и формальной логике OpenAI чуть-чуть побивают Google.
Сие значит, что для бытовых и творческих задач ТОЛЬКО Gemini, а для линейных вычислений — ChatGPT.
Это критичное преимущество в задачах поиска информации и креативной генерации.
При том, что в линейной алгебре (не в геометрической!) и формальной логике OpenAI чуть-чуть побивают Google.
Сие значит, что для бытовых и творческих задач ТОЛЬКО Gemini, а для линейных вычислений — ChatGPT.
👍1
This media is not supported in your browser
VIEW IN TELEGRAM
ЛЛМки опять пнули. Джуда Перл:
Джуда Перл это настоящий архитектор современного ИИ, который сначала научил машины работать с вероятностями через байесовские сети, а потом объяснил им разницу между простым совпадением и реальной причиной. Именно благодаря его идеям алгоритмы выросли из «калькуляторов» в мощные системы для медицины и автопилотов, способные принимать решения в условиях неопределенности. За этот фундаментальный апгрейд всей индустрии он абсолютно заслуженно получил премию Тьюринга в 2011 году.
Существуют математические пределы для LLM, которые нельзя преодолеть одним лишь масштабированием. Модели линейного программирования не создают модели мира на основе необработанных данных; они лишь обобщают интерпретации, уже записанные людьми. Этот путь не предназначен для получения общего искусственного интеллекта.
Джуда Перл это настоящий архитектор современного ИИ, который сначала научил машины работать с вероятностями через байесовские сети, а потом объяснил им разницу между простым совпадением и реальной причиной. Именно благодаря его идеям алгоритмы выросли из «калькуляторов» в мощные системы для медицины и автопилотов, способные принимать решения в условиях неопределенности. За этот фундаментальный апгрейд всей индустрии он абсолютно заслуженно получил премию Тьюринга в 2011 году.
👍4
Для протокола: AGI будет достигнут исключительно на геометрических нейро-символических сетях. ЛЛМки могут быть и будут частью таких сетей, но не более.
Поэтому, до AGI нам далеко. Ни одна из лаб в мире сейчас этим не занимается, по крайней мере открыто. Все завязли в перемножении матриц, слишком много чипов под это уже заказано. Да, это приведет к безумному улучшению инструментария (будем смотреть кино по заказу на Veo 10 или Sore 5), может даже ллмки смогут неплохо помогать в исследованиях, и будут неплохие агенты. Это в целом всё будет неплохо. Но это не будет подлинным прорывом. Это не будет революцией.
Поэтому, до AGI нам далеко. Ни одна из лаб в мире сейчас этим не занимается, по крайней мере открыто. Все завязли в перемножении матриц, слишком много чипов под это уже заказано. Да, это приведет к безумному улучшению инструментария (будем смотреть кино по заказу на Veo 10 или Sore 5), может даже ллмки смогут неплохо помогать в исследованиях, и будут неплохие агенты. Это в целом всё будет неплохо. Но это не будет подлинным прорывом. Это не будет революцией.
Интересная дискуссия о судьбе гуманитариев в контексте ИИ-революции с полей Давоса
Тут на панельках Всемирного экономического форума в Давосе зачалось любопытное обсуждение с противоположными выводами. Сооснователь Palantir Алекс Карп выступил с мнением, что развитие искусственного интеллекта кардинально изменит рынок труда, сделав представителей рабочих профессий и технических специалистов более востребованными, чем «белые воротнички». В качестве доказательства он приводит пример работников заводов, которые уже сейчас успешно выполняют задачи инженерного уровня, имея за плечами только среднее образование. Эти изменения, по мнению Карпа, ставят под сомнение необходимость массовой иммиграции, так как рабочих мест будет достаточно для граждан страны с профессиональным образованием.
Слова Карпа подтверждают и руководители ведущих ИИ-компаний. Главы Google DeepMind и Anthropic Демис Хассабис и Дарио Амодеи отмечают, что внедрение нейросетей уже влияет на наем, сокращая потребность в младших специалистах и программистах. Они прогнозируют, что в будущем компаниям понадобится меньше людей на начальных и средних позициях, поскольку ИИ возьмет на себя значительную часть их работы.
Однако существует и противоположная точка зрения. Финансовые лидеры и генеральный директор McKinsey полагают, что на фоне автоматизации технического анализа возрастет ценность гуманитарного образования. Креативность и нестандартное мышление, которые сложно воспроизвести алгоритмам, могут стать главным конкурентным преимуществом на рынке труда. Тем не менее Palantir продолжает продвигать альтернативный подход, предлагая стажировки выпускникам школ вместо традиционного университетского обучения.
Тут на панельках Всемирного экономического форума в Давосе зачалось любопытное обсуждение с противоположными выводами. Сооснователь Palantir Алекс Карп выступил с мнением, что развитие искусственного интеллекта кардинально изменит рынок труда, сделав представителей рабочих профессий и технических специалистов более востребованными, чем «белые воротнички». В качестве доказательства он приводит пример работников заводов, которые уже сейчас успешно выполняют задачи инженерного уровня, имея за плечами только среднее образование. Эти изменения, по мнению Карпа, ставят под сомнение необходимость массовой иммиграции, так как рабочих мест будет достаточно для граждан страны с профессиональным образованием.
Слова Карпа подтверждают и руководители ведущих ИИ-компаний. Главы Google DeepMind и Anthropic Демис Хассабис и Дарио Амодеи отмечают, что внедрение нейросетей уже влияет на наем, сокращая потребность в младших специалистах и программистах. Они прогнозируют, что в будущем компаниям понадобится меньше людей на начальных и средних позициях, поскольку ИИ возьмет на себя значительную часть их работы.
Однако существует и противоположная точка зрения. Финансовые лидеры и генеральный директор McKinsey полагают, что на фоне автоматизации технического анализа возрастет ценность гуманитарного образования. Креативность и нестандартное мышление, которые сложно воспроизвести алгоритмам, могут стать главным конкурентным преимуществом на рынке труда. Тем не менее Palantir продолжает продвигать альтернативный подход, предлагая стажировки выпускникам школ вместо традиционного университетского обучения.
❤1🔥1
DeepSeek в годовщину релиза R1 готовит что-то интересное: в их коде энтузиасты нашли следы новой архитектуры MODEL1. Судя по всему, эта модель будет работать даже на самых современных чипах Nvidia, которые еще только готовятся к выходу.
Главная особенность новинки — умная система памяти под названием Engram. Она позволит нейросети держать в голове огромные объемы информации, например, целые книги, и мгновенно находить в них нужные факты, не перечитывая всё заново.
По слухам, следующее поколение под названием V4 выйдет уже в середине февраля, как раз к Лунному Новому году. Внутренние тесты показывают, что новая модель может писать код лучше, чем главные конкуренты из OpenAI и Anthropic, особенно когда нужно работать с очень длинными и сложными задачами.
Всё это происходит ровно через год после того, как DeepSeek наделала шума своим первым громким релизом R1. Тогда выяснилось, что китайская компания смогла создать мощную модель за сущие копейки по меркам индустрии, что привело к падению рыночной капитализации Nvidia на $593 миллиарда за один день, лол. С тех пор они выпустили еще несколько версий, каждая из которых становилась всё мощнее, и теперь все с нетерпением ждут официального анонса четвертой версии.
Главная особенность новинки — умная система памяти под названием Engram. Она позволит нейросети держать в голове огромные объемы информации, например, целые книги, и мгновенно находить в них нужные факты, не перечитывая всё заново.
По слухам, следующее поколение под названием V4 выйдет уже в середине февраля, как раз к Лунному Новому году. Внутренние тесты показывают, что новая модель может писать код лучше, чем главные конкуренты из OpenAI и Anthropic, особенно когда нужно работать с очень длинными и сложными задачами.
Всё это происходит ровно через год после того, как DeepSeek наделала шума своим первым громким релизом R1. Тогда выяснилось, что китайская компания смогла создать мощную модель за сущие копейки по меркам индустрии, что привело к падению рыночной капитализации Nvidia на $593 миллиарда за один день, лол. С тех пор они выпустили еще несколько версий, каждая из которых становилась всё мощнее, и теперь все с нетерпением ждут официального анонса четвертой версии.