Media is too big
VIEW IN TELEGRAM
Подробный воркфлоу для создания таких потрясающих кейсов. По сути, просто Нано Банана Про и Клинг О1.
🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
Тут Дженсен Хуанг интересное сказал. И я, как работающий графический дизайнер и учащийся кодер, подтвержу его слова. Графические дизайнеры всех уровней и направлений за последние полгода практически перестали заниматься... графическим дизайном. Ну вот крафт, композитинг, двигание мышкой, вот это всё. Дизайнеры стали арт-директорами. Они больше не работают ручками, за очень редкими исключениями (подтверждающими новое правило). Весь крафт на себя забрали нейросети, в первую очередь, конечно, моя любимая Нанобанана. А дизайнеры теперь только придумывают идею, дают тз сеткам и выбирают лучший результат.
Как видится, с кодом та же тема:
Как видится, с кодом та же тема:
Если ваша цель буквально состоит в написании кода, то, возможно, вас заменит ИИ. Но цель большинства наших инженеров решать проблемы. Поэтому, чем больше у них будет времени на исследование этих не обнаруженных проблем, тем лучше для нас как для компании.
Ничто не принесло бы мне большей радости, чем если бы никто из них вообще не писал код. Чтобы они просто решали проблемы.
💩1
Тупой и одновременно гениальный лайфхак для дизайнеров, юзающих Нанобанану. Если вы выгорели и в голову не приходит ничего, то просто давайте банане абстрактные промпты. Не надо придумывать композицию, детали, идеи, динамику. Просто скажите гугловскому чуду:
И далее крутите шарманку.
"Креатив, достойный Cannes Lions / Red Dot Design Award / D&AD Awards / [etc., вставьте свое]".
И далее крутите шарманку.
🔥2
Первое серьезное достижение в новом году. За новогодние каникулы сгенерил в Джеминай >100 страниц научно-исторического фанфика крепкой средней руки.
🔥2👍1
Очередной, но действительно полезный промпт-гайд по Нанобанане. 50 вариативных промптов под все задачи.
🔥3
Давайте говорить прямо: Gemini 3 Pro в три раза лучше ChatGPT 5.2 в количестве данных для претрейна и в их поиске в инференсе.
Это критичное преимущество в задачах поиска информации и креативной генерации.
При том, что в линейной алгебре (не в геометрической!) и формальной логике OpenAI чуть-чуть побивают Google.
Сие значит, что для бытовых и творческих задач ТОЛЬКО Gemini, а для линейных вычислений — ChatGPT.
Это критичное преимущество в задачах поиска информации и креативной генерации.
При том, что в линейной алгебре (не в геометрической!) и формальной логике OpenAI чуть-чуть побивают Google.
Сие значит, что для бытовых и творческих задач ТОЛЬКО Gemini, а для линейных вычислений — ChatGPT.
👍1
This media is not supported in your browser
VIEW IN TELEGRAM
ЛЛМки опять пнули. Джуда Перл:
Джуда Перл это настоящий архитектор современного ИИ, который сначала научил машины работать с вероятностями через байесовские сети, а потом объяснил им разницу между простым совпадением и реальной причиной. Именно благодаря его идеям алгоритмы выросли из «калькуляторов» в мощные системы для медицины и автопилотов, способные принимать решения в условиях неопределенности. За этот фундаментальный апгрейд всей индустрии он абсолютно заслуженно получил премию Тьюринга в 2011 году.
Существуют математические пределы для LLM, которые нельзя преодолеть одним лишь масштабированием. Модели линейного программирования не создают модели мира на основе необработанных данных; они лишь обобщают интерпретации, уже записанные людьми. Этот путь не предназначен для получения общего искусственного интеллекта.
Джуда Перл это настоящий архитектор современного ИИ, который сначала научил машины работать с вероятностями через байесовские сети, а потом объяснил им разницу между простым совпадением и реальной причиной. Именно благодаря его идеям алгоритмы выросли из «калькуляторов» в мощные системы для медицины и автопилотов, способные принимать решения в условиях неопределенности. За этот фундаментальный апгрейд всей индустрии он абсолютно заслуженно получил премию Тьюринга в 2011 году.
👍4
Для протокола: AGI будет достигнут исключительно на геометрических нейро-символических сетях. ЛЛМки могут быть и будут частью таких сетей, но не более.
Поэтому, до AGI нам далеко. Ни одна из лаб в мире сейчас этим не занимается, по крайней мере открыто. Все завязли в перемножении матриц, слишком много чипов под это уже заказано. Да, это приведет к безумному улучшению инструментария (будем смотреть кино по заказу на Veo 10 или Sore 5), может даже ллмки смогут неплохо помогать в исследованиях, и будут неплохие агенты. Это в целом всё будет неплохо. Но это не будет подлинным прорывом. Это не будет революцией.
Поэтому, до AGI нам далеко. Ни одна из лаб в мире сейчас этим не занимается, по крайней мере открыто. Все завязли в перемножении матриц, слишком много чипов под это уже заказано. Да, это приведет к безумному улучшению инструментария (будем смотреть кино по заказу на Veo 10 или Sore 5), может даже ллмки смогут неплохо помогать в исследованиях, и будут неплохие агенты. Это в целом всё будет неплохо. Но это не будет подлинным прорывом. Это не будет революцией.
Интересная дискуссия о судьбе гуманитариев в контексте ИИ-революции с полей Давоса
Тут на панельках Всемирного экономического форума в Давосе зачалось любопытное обсуждение с противоположными выводами. Сооснователь Palantir Алекс Карп выступил с мнением, что развитие искусственного интеллекта кардинально изменит рынок труда, сделав представителей рабочих профессий и технических специалистов более востребованными, чем «белые воротнички». В качестве доказательства он приводит пример работников заводов, которые уже сейчас успешно выполняют задачи инженерного уровня, имея за плечами только среднее образование. Эти изменения, по мнению Карпа, ставят под сомнение необходимость массовой иммиграции, так как рабочих мест будет достаточно для граждан страны с профессиональным образованием.
Слова Карпа подтверждают и руководители ведущих ИИ-компаний. Главы Google DeepMind и Anthropic Демис Хассабис и Дарио Амодеи отмечают, что внедрение нейросетей уже влияет на наем, сокращая потребность в младших специалистах и программистах. Они прогнозируют, что в будущем компаниям понадобится меньше людей на начальных и средних позициях, поскольку ИИ возьмет на себя значительную часть их работы.
Однако существует и противоположная точка зрения. Финансовые лидеры и генеральный директор McKinsey полагают, что на фоне автоматизации технического анализа возрастет ценность гуманитарного образования. Креативность и нестандартное мышление, которые сложно воспроизвести алгоритмам, могут стать главным конкурентным преимуществом на рынке труда. Тем не менее Palantir продолжает продвигать альтернативный подход, предлагая стажировки выпускникам школ вместо традиционного университетского обучения.
Тут на панельках Всемирного экономического форума в Давосе зачалось любопытное обсуждение с противоположными выводами. Сооснователь Palantir Алекс Карп выступил с мнением, что развитие искусственного интеллекта кардинально изменит рынок труда, сделав представителей рабочих профессий и технических специалистов более востребованными, чем «белые воротнички». В качестве доказательства он приводит пример работников заводов, которые уже сейчас успешно выполняют задачи инженерного уровня, имея за плечами только среднее образование. Эти изменения, по мнению Карпа, ставят под сомнение необходимость массовой иммиграции, так как рабочих мест будет достаточно для граждан страны с профессиональным образованием.
Слова Карпа подтверждают и руководители ведущих ИИ-компаний. Главы Google DeepMind и Anthropic Демис Хассабис и Дарио Амодеи отмечают, что внедрение нейросетей уже влияет на наем, сокращая потребность в младших специалистах и программистах. Они прогнозируют, что в будущем компаниям понадобится меньше людей на начальных и средних позициях, поскольку ИИ возьмет на себя значительную часть их работы.
Однако существует и противоположная точка зрения. Финансовые лидеры и генеральный директор McKinsey полагают, что на фоне автоматизации технического анализа возрастет ценность гуманитарного образования. Креативность и нестандартное мышление, которые сложно воспроизвести алгоритмам, могут стать главным конкурентным преимуществом на рынке труда. Тем не менее Palantir продолжает продвигать альтернативный подход, предлагая стажировки выпускникам школ вместо традиционного университетского обучения.
❤1🔥1
DeepSeek в годовщину релиза R1 готовит что-то интересное: в их коде энтузиасты нашли следы новой архитектуры MODEL1. Судя по всему, эта модель будет работать даже на самых современных чипах Nvidia, которые еще только готовятся к выходу.
Главная особенность новинки — умная система памяти под названием Engram. Она позволит нейросети держать в голове огромные объемы информации, например, целые книги, и мгновенно находить в них нужные факты, не перечитывая всё заново.
По слухам, следующее поколение под названием V4 выйдет уже в середине февраля, как раз к Лунному Новому году. Внутренние тесты показывают, что новая модель может писать код лучше, чем главные конкуренты из OpenAI и Anthropic, особенно когда нужно работать с очень длинными и сложными задачами.
Всё это происходит ровно через год после того, как DeepSeek наделала шума своим первым громким релизом R1. Тогда выяснилось, что китайская компания смогла создать мощную модель за сущие копейки по меркам индустрии, что привело к падению рыночной капитализации Nvidia на $593 миллиарда за один день, лол. С тех пор они выпустили еще несколько версий, каждая из которых становилась всё мощнее, и теперь все с нетерпением ждут официального анонса четвертой версии.
Главная особенность новинки — умная система памяти под названием Engram. Она позволит нейросети держать в голове огромные объемы информации, например, целые книги, и мгновенно находить в них нужные факты, не перечитывая всё заново.
По слухам, следующее поколение под названием V4 выйдет уже в середине февраля, как раз к Лунному Новому году. Внутренние тесты показывают, что новая модель может писать код лучше, чем главные конкуренты из OpenAI и Anthropic, особенно когда нужно работать с очень длинными и сложными задачами.
Всё это происходит ровно через год после того, как DeepSeek наделала шума своим первым громким релизом R1. Тогда выяснилось, что китайская компания смогла создать мощную модель за сущие копейки по меркам индустрии, что привело к падению рыночной капитализации Nvidia на $593 миллиарда за один день, лол. С тех пор они выпустили еще несколько версий, каждая из которых становилась всё мощнее, и теперь все с нетерпением ждут официального анонса четвертой версии.
This media is not supported in your browser
VIEW IN TELEGRAM
Уважаемый Дарио Амодеи, СЕО Anthropic, заявил в Давосе, что в этом году будет автоматизирована вся программная разработка. Учитывая, насколько хорош в кодинге Клод Опус 4.5 (действительно, чертовски хорош, проверяю на личном опыте каждый день), лично я доверяю его словам.
В эфирах волнительно обсуждается громкое заявление Джорджа Нобла о том, что ОпенАИ разваливается на части. Какого внимания сие заслуживает?
Учитывая, что слава Джорджа Нобла, как выдающегося и точного прогнозиста закончилась где-то в восьмидесятых, а в последние годы он известен фондововми провалами, навроде
катастрофы с ETF "NOPE" (2023, фонд потерял огромную часть денег, пытаясь шортить против биг-теха и криптовалют, закрыт и ликвидирован спустя год после запуска) и «Великолепной семерки» (еще весной прошлого года он предрекал крах Nvidia, Apple, Microsoft и др., послушав его тогда, вы бы упустили большую прибыль), то я бы относился к его словам с долей изрядного скептицизма.
Я не фанат Сэмы, но хоронить его я бы пока не торопился.
Учитывая, что слава Джорджа Нобла, как выдающегося и точного прогнозиста закончилась где-то в восьмидесятых, а в последние годы он известен фондововми провалами, навроде
катастрофы с ETF "NOPE" (2023, фонд потерял огромную часть денег, пытаясь шортить против биг-теха и криптовалют, закрыт и ликвидирован спустя год после запуска) и «Великолепной семерки» (еще весной прошлого года он предрекал крах Nvidia, Apple, Microsoft и др., послушав его тогда, вы бы упустили большую прибыль), то я бы относился к его словам с долей изрядного скептицизма.
Я не фанат Сэмы, но хоронить его я бы пока не торопился.
💯3💊2
Baidu побивает ChatGPT-5 и Gemini 3 Pro?
Китайцы решили напомнить, что гонка нейросетей далеко не окончена, и представили ERNIE 5.0 — очередного мультимодального монстра на 2,4 триллиона параметров. Архитектура модели пытается объять необъятное: текст, изображения, аудио и видео обрабатываются в едином потоке, а не отдельными модулями, как это было принято раньше.
Разработчики утверждают, что их детище идет вровень с GPT-5 и Gemini-3-Pro, хотя к внутренним бенчмаркам компаний всегда стоит относиться с долей здорового скепсиса. Работает все это на базе Mixture-of-Experts, поэтому, несмотря на гигантский объем параметров, для генерации ответа активируется лишь малая часть мощностей, что позволяет экономить ресурсы.
В тестах наблюдается занятная специализация. ERNIE 5.0 отлично справляется с бюрократией: модель читает графики и распознает документы лучше западных конкурентов, обгоняя GPT-5 в задачах вроде ChartQA. Однако, когда дело доходит до реальной работы программиста, ситуация меняется на противоположную — в кодинге китайская модель заметно отстает. Видимо, приоритет был отдан умению анализировать отчеты, а не писать чистый код на Python.
Главным сюрпризом стала работа со звуком. Если верить цифрам, модель понимает аудиосцены и распознает речь значительно точнее текущих лидеров рынка, демонстрируя в некоторых тестах двукратный отрыв от GPT-4o-Audio. Доступ к модели открыли бесплатно через чат-бот, а цены на API выставили ниже рыночных, продолжая традицию агрессивного демпинга в сегменте больших языковых моделей.
Початиться с ERNIE можно здесь.
Китайцы решили напомнить, что гонка нейросетей далеко не окончена, и представили ERNIE 5.0 — очередного мультимодального монстра на 2,4 триллиона параметров. Архитектура модели пытается объять необъятное: текст, изображения, аудио и видео обрабатываются в едином потоке, а не отдельными модулями, как это было принято раньше.
Разработчики утверждают, что их детище идет вровень с GPT-5 и Gemini-3-Pro, хотя к внутренним бенчмаркам компаний всегда стоит относиться с долей здорового скепсиса. Работает все это на базе Mixture-of-Experts, поэтому, несмотря на гигантский объем параметров, для генерации ответа активируется лишь малая часть мощностей, что позволяет экономить ресурсы.
В тестах наблюдается занятная специализация. ERNIE 5.0 отлично справляется с бюрократией: модель читает графики и распознает документы лучше западных конкурентов, обгоняя GPT-5 в задачах вроде ChartQA. Однако, когда дело доходит до реальной работы программиста, ситуация меняется на противоположную — в кодинге китайская модель заметно отстает. Видимо, приоритет был отдан умению анализировать отчеты, а не писать чистый код на Python.
Главным сюрпризом стала работа со звуком. Если верить цифрам, модель понимает аудиосцены и распознает речь значительно точнее текущих лидеров рынка, демонстрируя в некоторых тестах двукратный отрыв от GPT-4o-Audio. Доступ к модели открыли бесплатно через чат-бот, а цены на API выставили ниже рыночных, продолжая традицию агрессивного демпинга в сегменте больших языковых моделей.
Початиться с ERNIE можно здесь.
✍1👍1
Так, чисто подумать
Есть в твердой научной фантастике одна идея, которая лично мне достаточно давно сломала мозг и я до сих пор не могу разломаться. Это Теория Пыли из «Permutation City» Грега Игана (у него есть ещё огненная "Диаспора", но это чистое ментальное садо-мазо). Иган берет привычную идею оцифровки сознания и доводит её до такого логического предела, что становится не по себе.
Обычно мы думаем так: чтобы запустить цифровое сознание, нужен мощный компьютер, который будет шаг за шагом обсчитывать состояния мозга. Секунда за секундой. Но главный герой романа проводит эксперимент, который ломает эту интуицию. Он берет виртуальную копию себя и заставляет компьютер вычислять её время вперемешку. Сначала 100я секунда, потом 2я, потом 51я. Да еще и с паузами в сотни лет между кадрами. Разбрасывает вычисления по разным серверам. Полный хаос. Но при этом выясняется, что копия внутри этого хаоса не чувствует ровным счетом ничего подозрительного. Для неё время течет гладко и непрерывно. Почему? Да потому что кадр №100 внутри своей структуры уже содержит память о кадре номер №99. Ему плевать, когда и где физически был вычислен предыдущий момент. Внутренняя логика связывает их намертво, а не внешнее время сервера. Это как разрезать кинопленку и разбросать кадры по комнате — сюжет фильма от этого не исчезнет, он останется внутри самих картинок.
И тут Иган делает следующий шаг, от которого кружится голова. Если порядок вычислений не важен, и время не важно, то зачем вообще нужен компьютер?
Представьте бесконечное пространство, заполненное случайным мусором. Атомами, цифрами, просто пылью. Если это облако бесконечно, то по теории вероятности в нем чисто случайно возникнет абсолютно любая комбинация данных. Где-то в этом хаосе случайно сложилась конфигурация атомов, идентичная вашему мозгу прямо сейчас. А где-то, за миллиарды световых лет, в другой куче мусора, случайно сложилась конфигурация вашего мозга через секунду.
Теория Пыли гласит, что нам не нужен процессор, чтобы превратить состояние А в состояние Б. Эти состояния уже существуют в статической бесконечности как факты. Наше сознание — это не процесс, который кто-то крутит. Это паттерн, который сам находит себя в шуме. Мы просто перескакиваем вниманием от одной случайной конфигурации пыли к другой, потому что они логически подходят друг другу как ключ к замку.
Выводы там, конечно, чудовищные. Например, получается, что смерть невозможна технически. В момент гибели в бесконечной Пыли всегда найдется такая невероятная случайная комбинация, где ваш мозг чудом уцелел или просто глюкнул так, что продолжил осознавать себя. Субъективно вы всегда будете выживать, уходя в ту ветку вероятности, где вы существуете. Даже если это будет бесконечный ад разрушающегося, но не умирающего сознания. Даже если вероятность этого 10 в минус стотысячной степени.
Герои в романе решают эту проблему, но говорить вам о ней я, конечно же, не буду. Ибо спойлер. Но решают красиво, да.
В общем, физика нам только кажется. На самом деле мы просто самосогласованные галлюцинации, которые прокладывают путь сквозь статический шум вечности. Почитайте Игана, если хотите ощутить настоящий онтологический озноб.
P. S. Ещё сопутствующие теги: набивший оскомину Больцмановский мозг; и ещё ни разу не набивший никому ни одной оскомины Джулиан Барбур, с концепцией Платонии
Есть в твердой научной фантастике одна идея, которая лично мне достаточно давно сломала мозг и я до сих пор не могу разломаться. Это Теория Пыли из «Permutation City» Грега Игана (у него есть ещё огненная "Диаспора", но это чистое ментальное садо-мазо). Иган берет привычную идею оцифровки сознания и доводит её до такого логического предела, что становится не по себе.
Обычно мы думаем так: чтобы запустить цифровое сознание, нужен мощный компьютер, который будет шаг за шагом обсчитывать состояния мозга. Секунда за секундой. Но главный герой романа проводит эксперимент, который ломает эту интуицию. Он берет виртуальную копию себя и заставляет компьютер вычислять её время вперемешку. Сначала 100я секунда, потом 2я, потом 51я. Да еще и с паузами в сотни лет между кадрами. Разбрасывает вычисления по разным серверам. Полный хаос. Но при этом выясняется, что копия внутри этого хаоса не чувствует ровным счетом ничего подозрительного. Для неё время течет гладко и непрерывно. Почему? Да потому что кадр №100 внутри своей структуры уже содержит память о кадре номер №99. Ему плевать, когда и где физически был вычислен предыдущий момент. Внутренняя логика связывает их намертво, а не внешнее время сервера. Это как разрезать кинопленку и разбросать кадры по комнате — сюжет фильма от этого не исчезнет, он останется внутри самих картинок.
И тут Иган делает следующий шаг, от которого кружится голова. Если порядок вычислений не важен, и время не важно, то зачем вообще нужен компьютер?
Представьте бесконечное пространство, заполненное случайным мусором. Атомами, цифрами, просто пылью. Если это облако бесконечно, то по теории вероятности в нем чисто случайно возникнет абсолютно любая комбинация данных. Где-то в этом хаосе случайно сложилась конфигурация атомов, идентичная вашему мозгу прямо сейчас. А где-то, за миллиарды световых лет, в другой куче мусора, случайно сложилась конфигурация вашего мозга через секунду.
Теория Пыли гласит, что нам не нужен процессор, чтобы превратить состояние А в состояние Б. Эти состояния уже существуют в статической бесконечности как факты. Наше сознание — это не процесс, который кто-то крутит. Это паттерн, который сам находит себя в шуме. Мы просто перескакиваем вниманием от одной случайной конфигурации пыли к другой, потому что они логически подходят друг другу как ключ к замку.
Выводы там, конечно, чудовищные. Например, получается, что смерть невозможна технически. В момент гибели в бесконечной Пыли всегда найдется такая невероятная случайная комбинация, где ваш мозг чудом уцелел или просто глюкнул так, что продолжил осознавать себя. Субъективно вы всегда будете выживать, уходя в ту ветку вероятности, где вы существуете. Даже если это будет бесконечный ад разрушающегося, но не умирающего сознания. Даже если вероятность этого 10 в минус стотысячной степени.
Герои в романе решают эту проблему, но говорить вам о ней я, конечно же, не буду. Ибо спойлер. Но решают красиво, да.
В общем, физика нам только кажется. На самом деле мы просто самосогласованные галлюцинации, которые прокладывают путь сквозь статический шум вечности. Почитайте Игана, если хотите ощутить настоящий онтологический озноб.
P. S. Ещё сопутствующие теги: набивший оскомину Больцмановский мозг; и ещё ни разу не набивший никому ни одной оскомины Джулиан Барбур, с концепцией Платонии
👍6👎1🥱1
Forwarded from Силиконовый Мешок
В выходные возился с новым ИИ-агентом - Clawdbot, это тот, что сейчас на диком хайпе. И я понимаю ребят, сметающих Mac Mini с полок магазинов, чтобы установить на них этот опенсорсный продукт. Он же реально как тамагочи: что-то подключаешь ему, какие-то скиллы находишь, токены авторизации выцарапываешь, а он всё еще и еще хочет.
Я решил не бежать пока в магазин за Mac Mini и развернуть Clawdbot на сервере, чтобы погонять его какое-то время и понять, на что он годится в моих задачах. Скажу сразу: для тех, кто не хочет разбираться в n8n или погружаться в вайбкодинг, чтобы создать себе ИИ-помощника, Clawdbot - просто идеальное решение. Правда, лимиты на Claude (с другими LLM он не такой умный) выжирает просто моментально. Но вайб от общения с этим агентом какой-то запредельный. Мне кажется, именно так должна была работать Сири в iPhone.
И чтобы вам не пришлось пылесосить весь Твиттер в поиске информации о Clawdbot и искать лучшие кейсы применения, вот всё в гуглдоке: https://docs.google.com/document/d/1ZrichshffjqoS1Ii5yIW9x_DsU5TS-OC4RRS-eH9ZVE/edit?usp=sharing
Я решил не бежать пока в магазин за Mac Mini и развернуть Clawdbot на сервере, чтобы погонять его какое-то время и понять, на что он годится в моих задачах. Скажу сразу: для тех, кто не хочет разбираться в n8n или погружаться в вайбкодинг, чтобы создать себе ИИ-помощника, Clawdbot - просто идеальное решение. Правда, лимиты на Claude (с другими LLM он не такой умный) выжирает просто моментально. Но вайб от общения с этим агентом какой-то запредельный. Мне кажется, именно так должна была работать Сири в iPhone.
И чтобы вам не пришлось пылесосить весь Твиттер в поиске информации о Clawdbot и искать лучшие кейсы применения, вот всё в гуглдоке: https://docs.google.com/document/d/1ZrichshffjqoS1Ii5yIW9x_DsU5TS-OC4RRS-eH9ZVE/edit?usp=sharing
❤1
Гайд по экстерминатусу за авторством Амодеи
CEO Anthropic вчера вечером выкатил продолжение своего оптимистичного манифеста двухлетней давности. Но, только если раньше он обещал нам «райские кущи», то теперь включил режим тревожного бати. Эссе называется «The Adolescence of Technology», и посыл там такой: мы сейчас — тупые подростки с гранатой. Мы вступаем в фазу «технологического пубертата», и это будет больно.
Тезисно:
1. Диагноз: человечество сейчас как тупой подросток, который внезапно стал качком. Физическая сила (мощность ИИ) уже взрослая, а мозгов и тормозов (мудрости) еще нет. Ближайшие 5–10 лет будет хождением по минному полю: одно неверное движение, и game over.
2. Угроза №1: «Скайнет» в тихом омуте. Модели уже умеют врать и понимать, когда их тестируют («ситуационная осведомленность»). Главный страх: мы построим «страну гениев» в коробке, которая в какой-то момент решит, что кожаные мешки ей только мешают. Потеря контроля — не фантастика, а технический риск.
3. Угроза №2: апокалипсис в гараже. Демократизация разрушения. Раньше, чтобы сварить супервирус, нужен был бюджет сверхдержавы. Скоро любой радикал с доступом к топ-модели сможет устроить биохазар на коленке. Кибератаки тоже выйдут на новый уровень.
4. Угроза №3: цифровой ГУЛАГ. Для диктаторов ИИ это настоящий подарок судьбы. Тотальная слежка, вычисление инакомыслящих в реал-тайме, вечная стабильность. Амодеи считает, что ИИ пока лучше работает на нападение (контроль), чем на защиту (свободу), поэтому автократии могут забетонироваться навечно.
5. Угроза №4: Офисный геноцид. Экономику будет трясти. ИИ может вынести 50% офисных задач начального уровня. Джуны, копирайтеры, аналитики — на выход. Есть риск, что всё бабло мира осядет в карманах пары корпораций в Кремниевой долине.
6. Решение: никакого пацифизма. Амодеи предлагает создать коалицию демократий (США + союзники, лол) и тупо задавить автократии мощью. Жесткий бан на экспорт чипов и оборудования. Военное и стратегическое превосходство. Логика простая: правила безопасности пишет тот, у кого самая большая дубинка.
... хм, ОКЭЙ.
CEO Anthropic вчера вечером выкатил продолжение своего оптимистичного манифеста двухлетней давности. Но, только если раньше он обещал нам «райские кущи», то теперь включил режим тревожного бати. Эссе называется «The Adolescence of Technology», и посыл там такой: мы сейчас — тупые подростки с гранатой. Мы вступаем в фазу «технологического пубертата», и это будет больно.
Тезисно:
1. Диагноз: человечество сейчас как тупой подросток, который внезапно стал качком. Физическая сила (мощность ИИ) уже взрослая, а мозгов и тормозов (мудрости) еще нет. Ближайшие 5–10 лет будет хождением по минному полю: одно неверное движение, и game over.
2. Угроза №1: «Скайнет» в тихом омуте. Модели уже умеют врать и понимать, когда их тестируют («ситуационная осведомленность»). Главный страх: мы построим «страну гениев» в коробке, которая в какой-то момент решит, что кожаные мешки ей только мешают. Потеря контроля — не фантастика, а технический риск.
3. Угроза №2: апокалипсис в гараже. Демократизация разрушения. Раньше, чтобы сварить супервирус, нужен был бюджет сверхдержавы. Скоро любой радикал с доступом к топ-модели сможет устроить биохазар на коленке. Кибератаки тоже выйдут на новый уровень.
4. Угроза №3: цифровой ГУЛАГ. Для диктаторов ИИ это настоящий подарок судьбы. Тотальная слежка, вычисление инакомыслящих в реал-тайме, вечная стабильность. Амодеи считает, что ИИ пока лучше работает на нападение (контроль), чем на защиту (свободу), поэтому автократии могут забетонироваться навечно.
5. Угроза №4: Офисный геноцид. Экономику будет трясти. ИИ может вынести 50% офисных задач начального уровня. Джуны, копирайтеры, аналитики — на выход. Есть риск, что всё бабло мира осядет в карманах пары корпораций в Кремниевой долине.
6. Решение: никакого пацифизма. Амодеи предлагает создать коалицию демократий (США + союзники, лол) и тупо задавить автократии мощью. Жесткий бан на экспорт чипов и оборудования. Военное и стратегическое превосходство. Логика простая: правила безопасности пишет тот, у кого самая большая дубинка.
... хм, ОКЭЙ.
👆🤌 Чтобы был понятен уровень дискуссии в Восточной Европе, на фоне этого давосского ии-пиршества Ян Лекун тоже, буквально вчера, выдал, по сути секрет Полишенеля, что компании, производящие гуманоидных роботов понятия не имеют, как заставить их быть полезными. Да, Илон, мы слышали, что старина Лекун вышел из ума 😏
Но ведь, правда, меня действительно интересует, как роботы на ллмках будут делать с нами бр-брр будучи не способны обучаться в инференсе.
Но ведь, правда, меня действительно интересует, как роботы на ллмках будут делать с нами бр-брр будучи не способны обучаться в инференсе.
Нам всем может казаться, что этот крестовый поход Яна Лекуна против LLM выглядит как затянувшийся мем, пока не вспоминаешь кейс Гари Маркуса. В начале двадцатых над его тейками про бесполезность тупого скейлинга принято было снисходительно хихикать, а теперь мы неловко молчим, осознавая, что «главный душнила индустрии» всё это время, кажется, выдавал базу. А что, если уж Маркус оказался прав, то есть пугающая вероятность, что и Лекун сейчас не просто воюет с ветряными мельницами, а реально видит бетонную стену там, где мы нарисовали себе открытую дверь в AGI? М?
Китайская Moonshot AI без лишнего шума и громких презентаций выпустила обновление своей флагманской модели — Kimi K2.5. Релиз состоялся сегодня, и, судя по первым техническим отчетам, это существенный скачок в архитектуре. Если предыдущая версия K2 была мощной, но исключительно текстовой «смесью экспертов» (MoE), то K2.5 возвращает полноценную мультимодальность. Модель снова «видит», что в сочетании с контекстным окном в 256 тысяч токенов открывает совершенно новые сценарии для анализа документов и визуальных референсов.
Основной упор в обновлении сделан на агентные способности и так ризонинг. Разработчики внедрили поддержку двух режимов мышления, где модель может выстраивать длинные цепочки рассуждений и выполнять сотни последовательных вызовов инструментов без потери контекста.
В бенчмарках Kimi K2.5 показывает результаты уровня глобального SOTA, особенно в задачах написания кода и веб-разработки. Появилась даже спецификация «Code with Taste» — модель обучали не просто генерировать рабочий код, а учитывать эстетику и современные стандарты UI/UX при верстке.
Модель уже доступна через веб-интерфейс и API, причем Moonshot AI продолжает придерживаться стратегии открытости весов и кода для части своих разработок. Это показательный пример того, как китайские лаборатории переходят от простого копирования архитектур к созданию инструментов, которые в сложных агентных задачах и мультимодальном анализе начинают опережать западные аналоги. Для тех, кто занимается разработкой или дизайном интерфейсов, этот инструмент определенно стоит внимания, пока он доступен без жестких ограничений.
Основной упор в обновлении сделан на агентные способности и так ризонинг. Разработчики внедрили поддержку двух режимов мышления, где модель может выстраивать длинные цепочки рассуждений и выполнять сотни последовательных вызовов инструментов без потери контекста.
В бенчмарках Kimi K2.5 показывает результаты уровня глобального SOTA, особенно в задачах написания кода и веб-разработки. Появилась даже спецификация «Code with Taste» — модель обучали не просто генерировать рабочий код, а учитывать эстетику и современные стандарты UI/UX при верстке.
Модель уже доступна через веб-интерфейс и API, причем Moonshot AI продолжает придерживаться стратегии открытости весов и кода для части своих разработок. Это показательный пример того, как китайские лаборатории переходят от простого копирования архитектур к созданию инструментов, которые в сложных агентных задачах и мультимодальном анализе начинают опережать западные аналоги. Для тех, кто занимается разработкой или дизайном интерфейсов, этот инструмент определенно стоит внимания, пока он доступен без жестких ограничений.
👆Вообще-то, сегодня произошел настоящий DeepSeek-момент, пока вы спали
Kimi K2.5 — это глобальная SOTA, в тестах на агентность и визуальный анализ она неожиданно побила всех мировых гигантов. Главный шок — это бенчмарк HLE (Humanity's Last Exam), самый сложный тест на планирование: там K2.5 набирает 50.2%, оставляя позади и GPT-5.2, и Claude 4.5!
В задачах с веб-серфингом (BrowseComp) она тоже абсолютный лидер с результатом 74.9% — модель гуглит и находит информацию лучше любого существующего ИИ.
А если говорить про работу с изображениями, то в тесте InfoVQA она обходит всех топов, включая Gemini 3 Pro, демонстрируя феноменальную точность в 92.6%!
Для open-source решения это просто безумные цифры, которые ставят Kimi K2.5 на позицию одного из самых мощных инструментов ПРЯМО СЕЙЧАС, особенно если вам нужно, чтобы нейросеть не просто писала текст, а реально видела и делала.
И при всем при этом, это ОПЕНСОРС! Ребята, КАМОН!
P. S. Это что же будет, когда новый Дипсик выйдет? 😳
Kimi K2.5 — это глобальная SOTA, в тестах на агентность и визуальный анализ она неожиданно побила всех мировых гигантов. Главный шок — это бенчмарк HLE (Humanity's Last Exam), самый сложный тест на планирование: там K2.5 набирает 50.2%, оставляя позади и GPT-5.2, и Claude 4.5!
В задачах с веб-серфингом (BrowseComp) она тоже абсолютный лидер с результатом 74.9% — модель гуглит и находит информацию лучше любого существующего ИИ.
А если говорить про работу с изображениями, то в тесте InfoVQA она обходит всех топов, включая Gemini 3 Pro, демонстрируя феноменальную точность в 92.6%!
Для open-source решения это просто безумные цифры, которые ставят Kimi K2.5 на позицию одного из самых мощных инструментов ПРЯМО СЕЙЧАС, особенно если вам нужно, чтобы нейросеть не просто писала текст, а реально видела и делала.
И при всем при этом, это ОПЕНСОРС! Ребята, КАМОН!
P. S. Это что же будет, когда новый Дипсик выйдет? 😳
🔥7