В эфирах волнительно обсуждается громкое заявление Джорджа Нобла о том, что ОпенАИ разваливается на части. Какого внимания сие заслуживает?
Учитывая, что слава Джорджа Нобла, как выдающегося и точного прогнозиста закончилась где-то в восьмидесятых, а в последние годы он известен фондововми провалами, навроде
катастрофы с ETF "NOPE" (2023, фонд потерял огромную часть денег, пытаясь шортить против биг-теха и криптовалют, закрыт и ликвидирован спустя год после запуска) и «Великолепной семерки» (еще весной прошлого года он предрекал крах Nvidia, Apple, Microsoft и др., послушав его тогда, вы бы упустили большую прибыль), то я бы относился к его словам с долей изрядного скептицизма.
Я не фанат Сэмы, но хоронить его я бы пока не торопился.
Учитывая, что слава Джорджа Нобла, как выдающегося и точного прогнозиста закончилась где-то в восьмидесятых, а в последние годы он известен фондововми провалами, навроде
катастрофы с ETF "NOPE" (2023, фонд потерял огромную часть денег, пытаясь шортить против биг-теха и криптовалют, закрыт и ликвидирован спустя год после запуска) и «Великолепной семерки» (еще весной прошлого года он предрекал крах Nvidia, Apple, Microsoft и др., послушав его тогда, вы бы упустили большую прибыль), то я бы относился к его словам с долей изрядного скептицизма.
Я не фанат Сэмы, но хоронить его я бы пока не торопился.
💯3💊2
Baidu побивает ChatGPT-5 и Gemini 3 Pro?
Китайцы решили напомнить, что гонка нейросетей далеко не окончена, и представили ERNIE 5.0 — очередного мультимодального монстра на 2,4 триллиона параметров. Архитектура модели пытается объять необъятное: текст, изображения, аудио и видео обрабатываются в едином потоке, а не отдельными модулями, как это было принято раньше.
Разработчики утверждают, что их детище идет вровень с GPT-5 и Gemini-3-Pro, хотя к внутренним бенчмаркам компаний всегда стоит относиться с долей здорового скепсиса. Работает все это на базе Mixture-of-Experts, поэтому, несмотря на гигантский объем параметров, для генерации ответа активируется лишь малая часть мощностей, что позволяет экономить ресурсы.
В тестах наблюдается занятная специализация. ERNIE 5.0 отлично справляется с бюрократией: модель читает графики и распознает документы лучше западных конкурентов, обгоняя GPT-5 в задачах вроде ChartQA. Однако, когда дело доходит до реальной работы программиста, ситуация меняется на противоположную — в кодинге китайская модель заметно отстает. Видимо, приоритет был отдан умению анализировать отчеты, а не писать чистый код на Python.
Главным сюрпризом стала работа со звуком. Если верить цифрам, модель понимает аудиосцены и распознает речь значительно точнее текущих лидеров рынка, демонстрируя в некоторых тестах двукратный отрыв от GPT-4o-Audio. Доступ к модели открыли бесплатно через чат-бот, а цены на API выставили ниже рыночных, продолжая традицию агрессивного демпинга в сегменте больших языковых моделей.
Початиться с ERNIE можно здесь.
Китайцы решили напомнить, что гонка нейросетей далеко не окончена, и представили ERNIE 5.0 — очередного мультимодального монстра на 2,4 триллиона параметров. Архитектура модели пытается объять необъятное: текст, изображения, аудио и видео обрабатываются в едином потоке, а не отдельными модулями, как это было принято раньше.
Разработчики утверждают, что их детище идет вровень с GPT-5 и Gemini-3-Pro, хотя к внутренним бенчмаркам компаний всегда стоит относиться с долей здорового скепсиса. Работает все это на базе Mixture-of-Experts, поэтому, несмотря на гигантский объем параметров, для генерации ответа активируется лишь малая часть мощностей, что позволяет экономить ресурсы.
В тестах наблюдается занятная специализация. ERNIE 5.0 отлично справляется с бюрократией: модель читает графики и распознает документы лучше западных конкурентов, обгоняя GPT-5 в задачах вроде ChartQA. Однако, когда дело доходит до реальной работы программиста, ситуация меняется на противоположную — в кодинге китайская модель заметно отстает. Видимо, приоритет был отдан умению анализировать отчеты, а не писать чистый код на Python.
Главным сюрпризом стала работа со звуком. Если верить цифрам, модель понимает аудиосцены и распознает речь значительно точнее текущих лидеров рынка, демонстрируя в некоторых тестах двукратный отрыв от GPT-4o-Audio. Доступ к модели открыли бесплатно через чат-бот, а цены на API выставили ниже рыночных, продолжая традицию агрессивного демпинга в сегменте больших языковых моделей.
Початиться с ERNIE можно здесь.
✍1👍1
Так, чисто подумать
Есть в твердой научной фантастике одна идея, которая лично мне достаточно давно сломала мозг и я до сих пор не могу разломаться. Это Теория Пыли из «Permutation City» Грега Игана (у него есть ещё огненная "Диаспора", но это чистое ментальное садо-мазо). Иган берет привычную идею оцифровки сознания и доводит её до такого логического предела, что становится не по себе.
Обычно мы думаем так: чтобы запустить цифровое сознание, нужен мощный компьютер, который будет шаг за шагом обсчитывать состояния мозга. Секунда за секундой. Но главный герой романа проводит эксперимент, который ломает эту интуицию. Он берет виртуальную копию себя и заставляет компьютер вычислять её время вперемешку. Сначала 100я секунда, потом 2я, потом 51я. Да еще и с паузами в сотни лет между кадрами. Разбрасывает вычисления по разным серверам. Полный хаос. Но при этом выясняется, что копия внутри этого хаоса не чувствует ровным счетом ничего подозрительного. Для неё время течет гладко и непрерывно. Почему? Да потому что кадр №100 внутри своей структуры уже содержит память о кадре номер №99. Ему плевать, когда и где физически был вычислен предыдущий момент. Внутренняя логика связывает их намертво, а не внешнее время сервера. Это как разрезать кинопленку и разбросать кадры по комнате — сюжет фильма от этого не исчезнет, он останется внутри самих картинок.
И тут Иган делает следующий шаг, от которого кружится голова. Если порядок вычислений не важен, и время не важно, то зачем вообще нужен компьютер?
Представьте бесконечное пространство, заполненное случайным мусором. Атомами, цифрами, просто пылью. Если это облако бесконечно, то по теории вероятности в нем чисто случайно возникнет абсолютно любая комбинация данных. Где-то в этом хаосе случайно сложилась конфигурация атомов, идентичная вашему мозгу прямо сейчас. А где-то, за миллиарды световых лет, в другой куче мусора, случайно сложилась конфигурация вашего мозга через секунду.
Теория Пыли гласит, что нам не нужен процессор, чтобы превратить состояние А в состояние Б. Эти состояния уже существуют в статической бесконечности как факты. Наше сознание — это не процесс, который кто-то крутит. Это паттерн, который сам находит себя в шуме. Мы просто перескакиваем вниманием от одной случайной конфигурации пыли к другой, потому что они логически подходят друг другу как ключ к замку.
Выводы там, конечно, чудовищные. Например, получается, что смерть невозможна технически. В момент гибели в бесконечной Пыли всегда найдется такая невероятная случайная комбинация, где ваш мозг чудом уцелел или просто глюкнул так, что продолжил осознавать себя. Субъективно вы всегда будете выживать, уходя в ту ветку вероятности, где вы существуете. Даже если это будет бесконечный ад разрушающегося, но не умирающего сознания. Даже если вероятность этого 10 в минус стотысячной степени.
Герои в романе решают эту проблему, но говорить вам о ней я, конечно же, не буду. Ибо спойлер. Но решают красиво, да.
В общем, физика нам только кажется. На самом деле мы просто самосогласованные галлюцинации, которые прокладывают путь сквозь статический шум вечности. Почитайте Игана, если хотите ощутить настоящий онтологический озноб.
P. S. Ещё сопутствующие теги: набивший оскомину Больцмановский мозг; и ещё ни разу не набивший никому ни одной оскомины Джулиан Барбур, с концепцией Платонии
Есть в твердой научной фантастике одна идея, которая лично мне достаточно давно сломала мозг и я до сих пор не могу разломаться. Это Теория Пыли из «Permutation City» Грега Игана (у него есть ещё огненная "Диаспора", но это чистое ментальное садо-мазо). Иган берет привычную идею оцифровки сознания и доводит её до такого логического предела, что становится не по себе.
Обычно мы думаем так: чтобы запустить цифровое сознание, нужен мощный компьютер, который будет шаг за шагом обсчитывать состояния мозга. Секунда за секундой. Но главный герой романа проводит эксперимент, который ломает эту интуицию. Он берет виртуальную копию себя и заставляет компьютер вычислять её время вперемешку. Сначала 100я секунда, потом 2я, потом 51я. Да еще и с паузами в сотни лет между кадрами. Разбрасывает вычисления по разным серверам. Полный хаос. Но при этом выясняется, что копия внутри этого хаоса не чувствует ровным счетом ничего подозрительного. Для неё время течет гладко и непрерывно. Почему? Да потому что кадр №100 внутри своей структуры уже содержит память о кадре номер №99. Ему плевать, когда и где физически был вычислен предыдущий момент. Внутренняя логика связывает их намертво, а не внешнее время сервера. Это как разрезать кинопленку и разбросать кадры по комнате — сюжет фильма от этого не исчезнет, он останется внутри самих картинок.
И тут Иган делает следующий шаг, от которого кружится голова. Если порядок вычислений не важен, и время не важно, то зачем вообще нужен компьютер?
Представьте бесконечное пространство, заполненное случайным мусором. Атомами, цифрами, просто пылью. Если это облако бесконечно, то по теории вероятности в нем чисто случайно возникнет абсолютно любая комбинация данных. Где-то в этом хаосе случайно сложилась конфигурация атомов, идентичная вашему мозгу прямо сейчас. А где-то, за миллиарды световых лет, в другой куче мусора, случайно сложилась конфигурация вашего мозга через секунду.
Теория Пыли гласит, что нам не нужен процессор, чтобы превратить состояние А в состояние Б. Эти состояния уже существуют в статической бесконечности как факты. Наше сознание — это не процесс, который кто-то крутит. Это паттерн, который сам находит себя в шуме. Мы просто перескакиваем вниманием от одной случайной конфигурации пыли к другой, потому что они логически подходят друг другу как ключ к замку.
Выводы там, конечно, чудовищные. Например, получается, что смерть невозможна технически. В момент гибели в бесконечной Пыли всегда найдется такая невероятная случайная комбинация, где ваш мозг чудом уцелел или просто глюкнул так, что продолжил осознавать себя. Субъективно вы всегда будете выживать, уходя в ту ветку вероятности, где вы существуете. Даже если это будет бесконечный ад разрушающегося, но не умирающего сознания. Даже если вероятность этого 10 в минус стотысячной степени.
Герои в романе решают эту проблему, но говорить вам о ней я, конечно же, не буду. Ибо спойлер. Но решают красиво, да.
В общем, физика нам только кажется. На самом деле мы просто самосогласованные галлюцинации, которые прокладывают путь сквозь статический шум вечности. Почитайте Игана, если хотите ощутить настоящий онтологический озноб.
P. S. Ещё сопутствующие теги: набивший оскомину Больцмановский мозг; и ещё ни разу не набивший никому ни одной оскомины Джулиан Барбур, с концепцией Платонии
👍6👎1🥱1
Forwarded from Силиконовый Мешок
В выходные возился с новым ИИ-агентом - Clawdbot, это тот, что сейчас на диком хайпе. И я понимаю ребят, сметающих Mac Mini с полок магазинов, чтобы установить на них этот опенсорсный продукт. Он же реально как тамагочи: что-то подключаешь ему, какие-то скиллы находишь, токены авторизации выцарапываешь, а он всё еще и еще хочет.
Я решил не бежать пока в магазин за Mac Mini и развернуть Clawdbot на сервере, чтобы погонять его какое-то время и понять, на что он годится в моих задачах. Скажу сразу: для тех, кто не хочет разбираться в n8n или погружаться в вайбкодинг, чтобы создать себе ИИ-помощника, Clawdbot - просто идеальное решение. Правда, лимиты на Claude (с другими LLM он не такой умный) выжирает просто моментально. Но вайб от общения с этим агентом какой-то запредельный. Мне кажется, именно так должна была работать Сири в iPhone.
И чтобы вам не пришлось пылесосить весь Твиттер в поиске информации о Clawdbot и искать лучшие кейсы применения, вот всё в гуглдоке: https://docs.google.com/document/d/1ZrichshffjqoS1Ii5yIW9x_DsU5TS-OC4RRS-eH9ZVE/edit?usp=sharing
Я решил не бежать пока в магазин за Mac Mini и развернуть Clawdbot на сервере, чтобы погонять его какое-то время и понять, на что он годится в моих задачах. Скажу сразу: для тех, кто не хочет разбираться в n8n или погружаться в вайбкодинг, чтобы создать себе ИИ-помощника, Clawdbot - просто идеальное решение. Правда, лимиты на Claude (с другими LLM он не такой умный) выжирает просто моментально. Но вайб от общения с этим агентом какой-то запредельный. Мне кажется, именно так должна была работать Сири в iPhone.
И чтобы вам не пришлось пылесосить весь Твиттер в поиске информации о Clawdbot и искать лучшие кейсы применения, вот всё в гуглдоке: https://docs.google.com/document/d/1ZrichshffjqoS1Ii5yIW9x_DsU5TS-OC4RRS-eH9ZVE/edit?usp=sharing
❤1
Гайд по экстерминатусу за авторством Амодеи
CEO Anthropic вчера вечером выкатил продолжение своего оптимистичного манифеста двухлетней давности. Но, только если раньше он обещал нам «райские кущи», то теперь включил режим тревожного бати. Эссе называется «The Adolescence of Technology», и посыл там такой: мы сейчас — тупые подростки с гранатой. Мы вступаем в фазу «технологического пубертата», и это будет больно.
Тезисно:
1. Диагноз: человечество сейчас как тупой подросток, который внезапно стал качком. Физическая сила (мощность ИИ) уже взрослая, а мозгов и тормозов (мудрости) еще нет. Ближайшие 5–10 лет будет хождением по минному полю: одно неверное движение, и game over.
2. Угроза №1: «Скайнет» в тихом омуте. Модели уже умеют врать и понимать, когда их тестируют («ситуационная осведомленность»). Главный страх: мы построим «страну гениев» в коробке, которая в какой-то момент решит, что кожаные мешки ей только мешают. Потеря контроля — не фантастика, а технический риск.
3. Угроза №2: апокалипсис в гараже. Демократизация разрушения. Раньше, чтобы сварить супервирус, нужен был бюджет сверхдержавы. Скоро любой радикал с доступом к топ-модели сможет устроить биохазар на коленке. Кибератаки тоже выйдут на новый уровень.
4. Угроза №3: цифровой ГУЛАГ. Для диктаторов ИИ это настоящий подарок судьбы. Тотальная слежка, вычисление инакомыслящих в реал-тайме, вечная стабильность. Амодеи считает, что ИИ пока лучше работает на нападение (контроль), чем на защиту (свободу), поэтому автократии могут забетонироваться навечно.
5. Угроза №4: Офисный геноцид. Экономику будет трясти. ИИ может вынести 50% офисных задач начального уровня. Джуны, копирайтеры, аналитики — на выход. Есть риск, что всё бабло мира осядет в карманах пары корпораций в Кремниевой долине.
6. Решение: никакого пацифизма. Амодеи предлагает создать коалицию демократий (США + союзники, лол) и тупо задавить автократии мощью. Жесткий бан на экспорт чипов и оборудования. Военное и стратегическое превосходство. Логика простая: правила безопасности пишет тот, у кого самая большая дубинка.
... хм, ОКЭЙ.
CEO Anthropic вчера вечером выкатил продолжение своего оптимистичного манифеста двухлетней давности. Но, только если раньше он обещал нам «райские кущи», то теперь включил режим тревожного бати. Эссе называется «The Adolescence of Technology», и посыл там такой: мы сейчас — тупые подростки с гранатой. Мы вступаем в фазу «технологического пубертата», и это будет больно.
Тезисно:
1. Диагноз: человечество сейчас как тупой подросток, который внезапно стал качком. Физическая сила (мощность ИИ) уже взрослая, а мозгов и тормозов (мудрости) еще нет. Ближайшие 5–10 лет будет хождением по минному полю: одно неверное движение, и game over.
2. Угроза №1: «Скайнет» в тихом омуте. Модели уже умеют врать и понимать, когда их тестируют («ситуационная осведомленность»). Главный страх: мы построим «страну гениев» в коробке, которая в какой-то момент решит, что кожаные мешки ей только мешают. Потеря контроля — не фантастика, а технический риск.
3. Угроза №2: апокалипсис в гараже. Демократизация разрушения. Раньше, чтобы сварить супервирус, нужен был бюджет сверхдержавы. Скоро любой радикал с доступом к топ-модели сможет устроить биохазар на коленке. Кибератаки тоже выйдут на новый уровень.
4. Угроза №3: цифровой ГУЛАГ. Для диктаторов ИИ это настоящий подарок судьбы. Тотальная слежка, вычисление инакомыслящих в реал-тайме, вечная стабильность. Амодеи считает, что ИИ пока лучше работает на нападение (контроль), чем на защиту (свободу), поэтому автократии могут забетонироваться навечно.
5. Угроза №4: Офисный геноцид. Экономику будет трясти. ИИ может вынести 50% офисных задач начального уровня. Джуны, копирайтеры, аналитики — на выход. Есть риск, что всё бабло мира осядет в карманах пары корпораций в Кремниевой долине.
6. Решение: никакого пацифизма. Амодеи предлагает создать коалицию демократий (США + союзники, лол) и тупо задавить автократии мощью. Жесткий бан на экспорт чипов и оборудования. Военное и стратегическое превосходство. Логика простая: правила безопасности пишет тот, у кого самая большая дубинка.
... хм, ОКЭЙ.
👆🤌 Чтобы был понятен уровень дискуссии в Восточной Европе, на фоне этого давосского ии-пиршества Ян Лекун тоже, буквально вчера, выдал, по сути секрет Полишенеля, что компании, производящие гуманоидных роботов понятия не имеют, как заставить их быть полезными. Да, Илон, мы слышали, что старина Лекун вышел из ума 😏
Но ведь, правда, меня действительно интересует, как роботы на ллмках будут делать с нами бр-брр будучи не способны обучаться в инференсе.
Но ведь, правда, меня действительно интересует, как роботы на ллмках будут делать с нами бр-брр будучи не способны обучаться в инференсе.
Нам всем может казаться, что этот крестовый поход Яна Лекуна против LLM выглядит как затянувшийся мем, пока не вспоминаешь кейс Гари Маркуса. В начале двадцатых над его тейками про бесполезность тупого скейлинга принято было снисходительно хихикать, а теперь мы неловко молчим, осознавая, что «главный душнила индустрии» всё это время, кажется, выдавал базу. А что, если уж Маркус оказался прав, то есть пугающая вероятность, что и Лекун сейчас не просто воюет с ветряными мельницами, а реально видит бетонную стену там, где мы нарисовали себе открытую дверь в AGI? М?
Китайская Moonshot AI без лишнего шума и громких презентаций выпустила обновление своей флагманской модели — Kimi K2.5. Релиз состоялся сегодня, и, судя по первым техническим отчетам, это существенный скачок в архитектуре. Если предыдущая версия K2 была мощной, но исключительно текстовой «смесью экспертов» (MoE), то K2.5 возвращает полноценную мультимодальность. Модель снова «видит», что в сочетании с контекстным окном в 256 тысяч токенов открывает совершенно новые сценарии для анализа документов и визуальных референсов.
Основной упор в обновлении сделан на агентные способности и так ризонинг. Разработчики внедрили поддержку двух режимов мышления, где модель может выстраивать длинные цепочки рассуждений и выполнять сотни последовательных вызовов инструментов без потери контекста.
В бенчмарках Kimi K2.5 показывает результаты уровня глобального SOTA, особенно в задачах написания кода и веб-разработки. Появилась даже спецификация «Code with Taste» — модель обучали не просто генерировать рабочий код, а учитывать эстетику и современные стандарты UI/UX при верстке.
Модель уже доступна через веб-интерфейс и API, причем Moonshot AI продолжает придерживаться стратегии открытости весов и кода для части своих разработок. Это показательный пример того, как китайские лаборатории переходят от простого копирования архитектур к созданию инструментов, которые в сложных агентных задачах и мультимодальном анализе начинают опережать западные аналоги. Для тех, кто занимается разработкой или дизайном интерфейсов, этот инструмент определенно стоит внимания, пока он доступен без жестких ограничений.
Основной упор в обновлении сделан на агентные способности и так ризонинг. Разработчики внедрили поддержку двух режимов мышления, где модель может выстраивать длинные цепочки рассуждений и выполнять сотни последовательных вызовов инструментов без потери контекста.
В бенчмарках Kimi K2.5 показывает результаты уровня глобального SOTA, особенно в задачах написания кода и веб-разработки. Появилась даже спецификация «Code with Taste» — модель обучали не просто генерировать рабочий код, а учитывать эстетику и современные стандарты UI/UX при верстке.
Модель уже доступна через веб-интерфейс и API, причем Moonshot AI продолжает придерживаться стратегии открытости весов и кода для части своих разработок. Это показательный пример того, как китайские лаборатории переходят от простого копирования архитектур к созданию инструментов, которые в сложных агентных задачах и мультимодальном анализе начинают опережать западные аналоги. Для тех, кто занимается разработкой или дизайном интерфейсов, этот инструмент определенно стоит внимания, пока он доступен без жестких ограничений.
👆Вообще-то, сегодня произошел настоящий DeepSeek-момент, пока вы спали
Kimi K2.5 — это глобальная SOTA, в тестах на агентность и визуальный анализ она неожиданно побила всех мировых гигантов. Главный шок — это бенчмарк HLE (Humanity's Last Exam), самый сложный тест на планирование: там K2.5 набирает 50.2%, оставляя позади и GPT-5.2, и Claude 4.5!
В задачах с веб-серфингом (BrowseComp) она тоже абсолютный лидер с результатом 74.9% — модель гуглит и находит информацию лучше любого существующего ИИ.
А если говорить про работу с изображениями, то в тесте InfoVQA она обходит всех топов, включая Gemini 3 Pro, демонстрируя феноменальную точность в 92.6%!
Для open-source решения это просто безумные цифры, которые ставят Kimi K2.5 на позицию одного из самых мощных инструментов ПРЯМО СЕЙЧАС, особенно если вам нужно, чтобы нейросеть не просто писала текст, а реально видела и делала.
И при всем при этом, это ОПЕНСОРС! Ребята, КАМОН!
P. S. Это что же будет, когда новый Дипсик выйдет? 😳
Kimi K2.5 — это глобальная SOTA, в тестах на агентность и визуальный анализ она неожиданно побила всех мировых гигантов. Главный шок — это бенчмарк HLE (Humanity's Last Exam), самый сложный тест на планирование: там K2.5 набирает 50.2%, оставляя позади и GPT-5.2, и Claude 4.5!
В задачах с веб-серфингом (BrowseComp) она тоже абсолютный лидер с результатом 74.9% — модель гуглит и находит информацию лучше любого существующего ИИ.
А если говорить про работу с изображениями, то в тесте InfoVQA она обходит всех топов, включая Gemini 3 Pro, демонстрируя феноменальную точность в 92.6%!
Для open-source решения это просто безумные цифры, которые ставят Kimi K2.5 на позицию одного из самых мощных инструментов ПРЯМО СЕЙЧАС, особенно если вам нужно, чтобы нейросеть не просто писала текст, а реально видела и делала.
И при всем при этом, это ОПЕНСОРС! Ребята, КАМОН!
P. S. Это что же будет, когда новый Дипсик выйдет? 😳
🔥7
У нас новый прорыв в биологических нейросетях
Представленный в Nature Machine Intelligence пэйпер от китайских исследователей Юэ Го, Хао Чжан, Хао Ху описывает новую модель XPert, которая стала настоящим прорывом в вычислительной биологии, элегантно решив проблему предсказания реакции клеток на различные препараты.
Авторы виртуозно объединили в архитектуре нейросети графовые алгоритмы и трансформеры, научив искусственный интеллект не просто обрабатывать сухие массивы данных, а глубоко понимать сложнейший язык молекулярных взаимодействий и динамику живых систем.
Потенциал XPert выглядит просто фантастически, ведь этот инструмент превращает поиск новых лекарств из долгого и затратного перебора вариантов в точный инженерный процесс. Биологически обоснованный подход позволяет модели филигранно отделять фоновое состояние клетки от эффекта терапии, что открывает прямую дорогу к эре по-настоящему персонализированной медицины.
Это тот самый случай, когда высокие технологии и фундаментальная биология сливаются воедино, позволяя ученым проводить сложнейшие эксперименты виртуально и значительно быстрее доставлять спасительные лекарства пациентам.
Представленный в Nature Machine Intelligence пэйпер от китайских исследователей Юэ Го, Хао Чжан, Хао Ху описывает новую модель XPert, которая стала настоящим прорывом в вычислительной биологии, элегантно решив проблему предсказания реакции клеток на различные препараты.
Авторы виртуозно объединили в архитектуре нейросети графовые алгоритмы и трансформеры, научив искусственный интеллект не просто обрабатывать сухие массивы данных, а глубоко понимать сложнейший язык молекулярных взаимодействий и динамику живых систем.
Потенциал XPert выглядит просто фантастически, ведь этот инструмент превращает поиск новых лекарств из долгого и затратного перебора вариантов в точный инженерный процесс. Биологически обоснованный подход позволяет модели филигранно отделять фоновое состояние клетки от эффекта терапии, что открывает прямую дорогу к эре по-настоящему персонализированной медицины.
Это тот самый случай, когда высокие технологии и фундаментальная биология сливаются воедино, позволяя ученым проводить сложнейшие эксперименты виртуально и значительно быстрее доставлять спасительные лекарства пациентам.
Nature
Modelling drug-induced cellular perturbation responses with a biologically informed dual-branch transformer
Nature Machine Intelligence - A dual-branch framework that disentangles cell states from drug-induced regulatory shifts to predict transcriptional responses is presented. It captures nonlinear...
🔥2
Гугл теперь будет давать про- и ультра-юзерам по 10$ и 100$ в месяц соответственно на использование облачной платформы Google Cloud Platform (GCP).
Цель — сократить разрыв между «классной идеей в чате с ИИ» и реальным работающим приложением. Если вы что-нибудь навайбкодили, то эти кредиты позволят вам сразу же развернуть и запустить это на серверах Google, не оплачивая хостинг отдельно (в пределах суммы кредитов).
Цель — сократить разрыв между «классной идеей в чате с ИИ» и реальным работающим приложением. Если вы что-нибудь навайбкодили, то эти кредиты позволят вам сразу же развернуть и запустить это на серверах Google, не оплачивая хостинг отдельно (в пределах суммы кредитов).
🔥7
Не выдержал, и купил подписку Allegretto на Kimi K2.5, чтобы спецом поюзать режим Agent Swarm. Это тот самый режим, когда создаются до 100 специализированных агентов и выполняются до 1500 вызовов инструментов параллельно.
Закинул ей черновик своего пет-проекта и она разбила задачу на 50 шагов, подняла четырех (возможно, пока что) агентов, раздала им роли, и вот теперь они сидят и разбирают мой бред параллельно :)
Закинул ей черновик своего пет-проекта и она разбила задачу на 50 шагов, подняла четырех (возможно, пока что) агентов, раздала им роли, и вот теперь они сидят и разбирают мой бред параллельно :)
This media is not supported in your browser
VIEW IN TELEGRAM
Результат ваншота Video-to-code в Kimi К2.5. Структура, текст, анимации и дизайн по большей части скопированы в готовый код.
🤯2
Forwarded from Сиолошная
Ещё раз отдам должное тому, как хорошо и естественно пишет Gemini 3 Pro (на русском). Настолько, что текст приходится читать два раза, потому что в первый звучал так складно, что я даже не заметил проблем.
"Двухходовочка" блин для названия двух пронумерованных пунктов. Хорошо, что не "двушечка". Дал дал отошёл.
"Двухходовочка" блин для названия двух пронумерованных пунктов. Хорошо, что не "двушечка". Дал дал отошёл.
👍2🔥1💯1
В общем, поковырял вчера рой агентов в Кими (Kimi K2.5 Agent Swarm) и вот, что могу сказать. За 39 долларов дается почти 40 кредитов на использование роя, 3 кредита сгорают за одно использование. Кстати, агент, который делает сайты (довольно неплохо), стоит так же.
Рой агентов оказался намного усерднее и критичнее в анализе научных и исследовательских проектов, чем режимы глубоких исследований от Gemini и ChatGPT. На каждый проект рой брал чуть более получаса и затем выдавал максимально взвешенные и долгие отчеты. При этом весь процесс работы роя можно наблюдать в режиме реального времени, читать отчеты отдельных агентов и следить за их работой.
Но есть один критичный момент, от которого зависит многое. При поручении рою агентов задачи на создание нескольких десятков изображений (Кими может поднимать в процессе Нанобанану), он подошел к исполнению слишком гибко и просто решил... заменить генерацию картинок генерацией плэйсхолдеров через код, потому что так ПРОЩЕ :) И честно об этом сказал. То есть, необходимо при постановке задач формулировать их предельно точно и предугадывать такие вот творческие решения роя агентов.
В целом, рой агентов от Кими это действительно куда более серьезный и мощный инструмент, чем аналоги от ведущих американских компаний.
Рой агентов оказался намного усерднее и критичнее в анализе научных и исследовательских проектов, чем режимы глубоких исследований от Gemini и ChatGPT. На каждый проект рой брал чуть более получаса и затем выдавал максимально взвешенные и долгие отчеты. При этом весь процесс работы роя можно наблюдать в режиме реального времени, читать отчеты отдельных агентов и следить за их работой.
Но есть один критичный момент, от которого зависит многое. При поручении рою агентов задачи на создание нескольких десятков изображений (Кими может поднимать в процессе Нанобанану), он подошел к исполнению слишком гибко и просто решил... заменить генерацию картинок генерацией плэйсхолдеров через код, потому что так ПРОЩЕ :) И честно об этом сказал. То есть, необходимо при постановке задач формулировать их предельно точно и предугадывать такие вот творческие решения роя агентов.
В целом, рой агентов от Кими это действительно куда более серьезный и мощный инструмент, чем аналоги от ведущих американских компаний.
🔥2
Forwarded from Борис опять
На днях обсуждали с админом @pseudolabeling, что автоматические фильтры резюме совсем оборзели. Некоторые ребята которых я менторил из-за этого вручную оптимизировали резюме под каждую вакансию. Почему бы не автоматизировать?
Навайбкодил за два вечера hr-breaker:
1. Загружаете резюме
2. Даете ссылку на вакансию
3. LLM вооруженная тулколами генерирует оптимизированное резюме (в том числе по советам из методички)
4. Делаются стандартные проверки: keyword matching, vector similarity, проверка LLM-кой (в том числе визуально, что всё не поехало), проверка на галлюцинации, проверка на очевидный AI-generated текст
5. Если хотя бы одна проверка не пройдена оптимизация продолжается
Важно, что всё сконфигурировано не врать и не изобретать опыта которого нет, поэтому получается очень неплохо. Но если у вас нет совести ничто вам не мешает поиграться с промптами🤗
Скачиваете, подставляете свой ключ Gemini API,
@boris_again
Навайбкодил за два вечера hr-breaker:
1. Загружаете резюме
2. Даете ссылку на вакансию
3. LLM вооруженная тулколами генерирует оптимизированное резюме (в том числе по советам из методички)
4. Делаются стандартные проверки: keyword matching, vector similarity, проверка LLM-кой (в том числе визуально, что всё не поехало), проверка на галлюцинации, проверка на очевидный AI-generated текст
5. Если хотя бы одна проверка не пройдена оптимизация продолжается
Важно, что всё сконфигурировано не врать и не изобретать опыта которого нет, поэтому получается очень неплохо. Но если у вас нет совести ничто вам не мешает поиграться с промптами
Скачиваете, подставляете свой ключ Gemini API,
uv run и уничтожаете скрининг как явление. Добейте выживших@boris_again
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1