Valuable AI / Валентин Малых
1.88K subscribers
448 photos
55 videos
2 files
439 links
личный канал про ИИ
Download Telegram
заметка про фрактальность нашего бытия

наверное, многие слышали о том, что в Финляндии тепло от ЦОДов используют для обогрева домов (первая картинка); кстати, эту тему активно развивал Яндекс (он даже в статье упомянут под псевдонимом Nebius)

а тут пришли известия о гениальном изобретении - на CES 2026 представили водонагреватель со встроенным майнером (вторая картинка); самое крутое, что расход электричества получается ровно такой же, как у обычного водонагревателя

для нашей страны это может быть решением проблемы с недоступностью мощностей для обучения суверенного ИИ, если сделать федеральную программу по установке таких водонагревателей и грамотно применить федеративное обучение (шутка, конечно)

P.S. мы месяц назад уже обсуждали газовую колонку c ИИ, но это - другое

@valuableai
👍11😁3🔥1🆒1
про Claude Cowork говорят из каждого чайника с ИИ, ему обеспечили интеграцию с MacOS, и он способен оперировать, например, с локальными файлами (на первом видео)

я могу сделать смелое предположение, что он под капотом работает с CLI, в конце концов MacOS - это *nix-система, где 100% задач можно сделать через консоль; так что я готов присоединиться к высказыванию коллеги, который пишет, что агенты вернули нам консольные интерфейсы

хочу вас поздравить с тем, что мы стали еще немного ближе к миру Космической одиссеи 2001 (да-да, я знаю, что мы уже его обогнали на 25 лет); интерфейс компьютера HAL 9000 на втором видео, отдельно смешно смотрится пассаж оттуда, что компьютеры серии HAL не сделали ни одной ошибки, особенно в свете вот таких новостей

P.S. но тем не менее Космическую одиссею настоятельно рекомендую к просмотру, если еще нет; один из лучших фантастических фильмов всех времен

@valuableai
👍31
кто пропустил, сейчас разыгрывается очередная драма в OpenAI - оттуда уволился человек, который занимался исследованиями влияния ИИ на экономику; он мотивировал свое увольнение тем, что не хочет выступать в роли агитатора за советскую власть ИИ; для сравнения рекомендую ознакомиться с историей кукурузных хлопьев (популярное блюдо на завтрак), мне кажется, можно увидеть определенные параллели

но от драмы перейдем к более реальным вещам; Anthropic выпустили очередной отчет про то, для каких задач люди используют Claude; если в двух словах, то можно заметить, что использование ИИ для автоматизации не растет, кроме разработки ПО, так что влияние ИИ на экономику остается ограниченным; коллегам из OpenAI опять лишь бы похайпить

P.S. картинка для привлечения внимания из мануала IBM за 1979 год

@valuableai
🤔4👍3😁1
неплохо так гражданин порвался, думаю, это все вайб-кодинг виноват

самое прикольное, что Роберт Пайк - это соавтор чатбота Mark V. Shaney, сделали его еще в 1984 году для переписки в UseNet, сейчас уже никто и не помнит, что это такое, но в те былинные времена было покруче чатов в телеграме

@valuableai
😁7🔥3
всем привет, сегодня новый "Капитанского мостика", мы снова вдвоем с Димой Колодезевым

ИИ-саммари:
ИИ и данные перестраивают рынок: у Яндекса появился поиск товаров через Алису, Google работает над ОС Aluminum (слияние Android и Chrome), и платформы адаптируются под новые сценарии. Геополитика и инфраструктура пересекаются — запрет на аренду GPU китайским компаниям, поиск дешёвой стабильной энергии (гидро, интерес к проектам вроде Эфиопии, роль атомной энергетики и малых модульных реакторов), причём развитие тормозят регуляции и общественный страх после аварий. В Китае много «тихих» мелких ИИ‑компаний и провинциальная конкуренция; санкции, этические ограничения (фетва против дипфейков в Казахстане) и финансовые проблемы игроков вроде OpenAI меняют бизнес‑модели. Автоматизация — от роботов‑доставщиков до автономных такси — растёт и в перспективе сократит потребность в живом труде, хотя технические ограничения ещё присутствуют.

ссылки:
ODS VK Video

ODS YouTube

мой дзен

@valuableai
6
многие уже слышали про Zhipu AI (智谱 - с китайского можно перевести как "композиция мудрости"), это еще один китайский ИИ-стартап, который выпускает свои базовые модели; в частности на прошлой неделе они выпустили модель GLM-Image для генерации картинок (примеры работы на первых двух картинках)

на третьей картинке изображен пайплайн работы их модели - сначала они авторегрессионно генерируют изображение более низкого качества, а потом улучшают его с помощью диффузии; интересно, что они используют отдельные токены для того, чтобы закодировать текст, который должен быть на изображении (4 картинка)

но привлекла мое внимание не сама модель, а тот факт, что эта модель - первая модель для генерации изображений, обученная на Huawei Ascend; DeepSeek в свое время заявлял сначала инференс на них, а потом и обучение - хотя были сомнения; а теперь - еще одна независимая компания

в общем, Huawei можно поздравить с достижением статуса "китайской Nvidia", а нас всех - с развитием рынка генеративных моделей

@valuableai
🔥17💘5
на прошлой неделе довольно широко прозвучала статья Engram от DeepSeek; суть статьи показана на первой картинке - перед вниманием добавляется новый блок памяти, который позволяет подмешивать к векторному представлению входов векторное представление n-грам из памяти; пример работы показан на второй картинке

интересно, что прибавку к качеству это дает в целом копеечную, если учесть затраченную память - в экспериментах такая фиксированная память это +20% к размеру модели при прибавке в разных тестах от сотых долей до первых процентов

в качестве контрастной новости: недавно вышла другая работа, где показали, что LLM (без внешней памяти) могут воспроизвести 96% текста Гарри Поттера, например; третья и четвертая картинка показывают, как этого можно достичь; на пятой картинке - результаты

в заключение хочется отметить, что так или иначе мы недалеко ушли от по-настоящему больших языковых моделей

@valuableai
👍3🔥2
Sakana AI предложили очередное простое улучшение: вместо того, чтобы делать сложные функции близости для позиционных векторов в трасформерах (как классические Positional Encoding или RoPE) или просто их выучивать, как было, например, в GPT2), они предложили простую идею - давайте предсказывать позицию для каждого токена (первая картинка)

это приводит к тому, что близость токенов определяется их семантической близостью, а из этого уже следует возможность для модели лучше работать с шумным текстом (например, с выходом ASR) или просто с длинным текстом (вторая картинка)

в целом, могу только поаплодировать коллегам, идея что называется витала в воздухе, а они ее ухватили и доказали ее полезность

P.S. напоминаю, что Sakana сейчас делают одни из самых интересных вещей в индустрии, уже не раз обозревал их работы (1, 2, 3)

@valuableai
9🔥4
тут по сети пошел гулять какой-то нейрошлак - якобы выдержки из письма Ильи Суцкевера совету директоров OpenAI; я отобрал те картинки, на которых что-то вменяемое

согласно им для сильного ИИ нужно минимум 3 ГВт электроэнергии непрерывно; из этого делается вывод, что практически сильный ИИ недостижим

в этой связи интересно, что некий британский физик (я все-таки надеюсь, что он больше ученый, чем британский) в конце прошлого года отправил, а буквально в первые минуты текущего года опубликовал гипотезу, которая призвана объяснить интеллект (в том числе ИИ) с физической точки зрения; в основе ее лежит как раз второй закон термодинамики и закон сохранения энергии, как и в "письме Суцкевера"

тут еще стоит вспомнить про книжку The Age of Em, про которую уже несколько раз упоминал, там базовым условием существования этих самых em (то есть копий человеческого мозга) является так называемое термодинамическое аппаратное обеспечение, которое использует для вычислений флуктуации внутри самого "железа"

@valuableai
😁31