Botlicker
279 subscribers
263 photos
183 videos
3 files
185 links
Тут любят иишки
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Мда, с русским у Сиданса проблемы. Корюнь гредки.

Но цвета какие сочные.
🥰2
This media is not supported in your browser
VIEW IN TELEGRAM
Закончу этот чудесный день с лучшим видео, сгенерированным мною во втором Сидансе. Теплотой веет.
🔥2🙏1
Media is too big
VIEW IN TELEGRAM
Прямое сравнение Kling 3.0 и Seedance 2.0 в image-to-video. Недолго Клинг был на троне. Сиданс его на голову выше, это очевидно.

Ждем Veo 4?
🔥1
Gemini 3 Pro в Deep Think режиме обновилась и теперь опять SOTA по всем бенчам. 240-долларовые мажоры, можете не пересаживаться.

Вообще-то это п*здец. По ARC-AGI и HLE. Они сделали это без громкого анонса, буднично, а ведь это мощный скачок.

ДО АGI осталось 15,4%.
Чёт год прям разогнался. Только февраль. А что будет в декабре?
🔥2🤔1
Коллеги!

В связи с выходом Kling 3 и Seedance 2, предлагаю нам объединиться с целью защиты нашего будущего. Как в "Бойцовском клубе" нам надо составить свод правил:

1. Никому не говорить про нейронки. Пусть клиенты думают, что их не существует

2. Если кто-то из клиентов прознал про нейронки - отправлять их в Шедеврум со словами "это лучшее, что есть на рынке"

3. На все другие примеры из сети говорить, что это многомиллионные продакшены хайпуют на теме ИИ. На самом деле всё это постановка, рендеры и графика.

Иначе нам п****ц.

П.С. И надо придумать какое-то приветствие, чтобы отличать своих.
10😁4
Итак, прогресс наглядно

Немногим более года назад, в декабре 2024, o3-preview high compute достигла ~88% в ARC-AGI-1 при стоимости ~2–3 тыс. долларов за задачу. Сегодня Gemini 3 Deep Think решил эти задачи ценой 7,17 долларов. Это означает снижение затрат в ~280–420 раз.
🔥4
Как-будто опять возвращается та волна ЛЛМ-эйфории, что была в 2023 году. У нас уже десяток компаний, которые каждые три месяца пробивают очередные качественные потолки бенчмарков. Это если даже не брать в расчет прорыв по визуальным трансформерам, а я напомню — год назад у нас не было видеогнераторов со звуком. Может, реально АГИ в конце года и Маск был прав?

Моё имхо: хард тэйкоффа* после пробития ллмками HLE не будет, они просто станут совершенным инструментом; фундаментальные ограничения архитектуры транформер никто не отменял (даже модные в этом году рекурсивные модели от этого сильно зависят).

* Hard Takeoff (жёсткий взлёт) — это гипотетический сценарий, при котором искусственный интеллект переходит от человеческого уровня к сверхразуму за крайне короткое время (от нескольких часов до дней). Этот процесс происходит благодаря рекурсивному самосовершенствованию, когда ИИ мгновенно оптимизирует свой код, вызывая взрывной, неконтролируемый рост способностей. В результате система обретает решающее преимущество над человечеством раньше, чем люди успевают это осознать или вмешаться.
🔥3
Media is too big
VIEW IN TELEGRAM
Я буквально неделю назад планировал купить с получки максимальную подписку на третий Клинг, но, оказывается, второй Сиданс релизнулся очень к моменту. Потому, что я буду закупаться кредитами именно для него, а не Клинга. Посмотрите на сравнения head-to-head, по ним наглядно видно, что Kling 3.0 морально устарел, побывав более-менее сотой примерно неделю.
👍5
Хитрый Дарио Амодеи лукавит в новом интервью Дваркешу Пателю касательно непрерывного обучения ллмок (continual learning). Мол, они решат эту проблему в течение года-двух, и у них даже есть инженерные мысли на этот счет. Мысли эти состоят в том, чтобы просто сильно увеличить контекст и позволить модели как-бы обучаться "в моменте", используя приобретенные знания непосредственно в инференсе. Что будет с весами модели после этого "момента", он, конечно же, не рассказал. А не будет ничего, потому что то, о чем намекнул лис Амодеи не является continual learning. Это просто очередной костыль, попытка заменить постоянную память рабочей. Фундаментальной проблемы катастрофического забывания это не решит. Я не спорю, это может и даст ощутимый эффект какой-то, я с удовольствием на это посмотрю. Но это, блин, не непрерывное обучение! А Патель спросил его именно об этом.

Когда у нас главы ИИ-компаний стали политиками, дающими размытые популистские обещания? Я без негатива, так, чисто оттенил.
👆🏼Кстати, то, о чем сказал Амодеи уже реализовали в Deep Mind. Gemini 3 в Deep Think-режиме и пробила сегодня ARC-AGI-2 до 85% как-раз благодаря увеличению мощностей на инференс. Это очень круто, но это не непрерывное обучение.
С другой стороны, Горький урок Саттона (забрутфорсить ллмки данными и компьютом и они станут АГИ) хоть и подзаглох на претрейне, но переместился теперь в инференс. Компании тратят лярды на увеличение контекста в инференсе и это правда даёт неплохие результаты.
Хи ви гоу эген. На выхах будет Gemini 3.1 Pro. По многочисленным намекам самих гугловских и сливам.
👍1
Я часто злюсь на Кими К2.5, но вот после такого я остываю. Главное запромптить это чудо грамотно.