Love. Death. Transformers.
в целом с выходом opus4.5 модели как будто перешагнули некоторую критическую границу полезности(не заметную на бенчах), если до этого вызов и нормальное планирование функций было чем то решаемым, но внешим и чужим для моделей, то теперь модели взаимоделйствуют…
https://www.anthropic.com/engineering/building-c-compiler
много ли вы знаете людей которые в состоянии написать c compiler(даже хуевый)? я не очень много
много ли вы знаете людей которые в состоянии написать c compiler(даже хуевый)? я не очень много
Anthropic
Building a C compiler with a team of parallel Claudes
Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.
👍43❤🔥9😨7🔥4😍2🍓1💋1
Btw юдковский около нуля постов написал интересных за последние пару месяцев
Forwarded from Петар Мартич в наушниках
Петар Мартич - 2016 (2026)
СЛУШАТЬ ВЕЗДЕ
Ничего никогда не вернёт
Твой 2016 год
Музыка и слова: Петар Мартич
Гитара: Источник
Сведение: Андрей Шатров
СЛУШАТЬ ВЕЗДЕ
Ничего никогда не вернёт
Твой 2016 год
Музыка и слова: Петар Мартич
Гитара: Источник
Сведение: Андрей Шатров
🗿58🔥15💩11🥱3🤪3 3❤🔥1
На заметку: Сбер показал технический отчет Green-VLA, посвященный развитию физического искусственного интеллекта. На основе этой модели был как раз построен робот Грин, который на AI Journey в прошедшем ноябре более 10 часов (!) провел, передвигаясь по конференции, общаясь со зрителями и танцуя.
В общем, вполне логично, что материал занял первое место на портале Hugging Face среди всех статей дня.
В общем, вполне логично, что материал занял первое место на портале Hugging Face среди всех статей дня.
😁91 34👍15💩8🥴5 4🗿3🔥2👏2💋2
Love. Death. Transformers.
https://ai-2027.com/ Опять попугаи угрожают человечеству, да чтож такое то. Я держу в курсе, но у нас нет даже близко бенчей для химии нормальных, почему биооружие быстрее роботов, хотя роботов можно гонять в симуляции?
Вообще оч забавно что за буквально месяц до выхода первого что похоже на self replicating swe agent и моделей которые больше всего похожи на general swe agent > human челы подвинули свои предикты вперёд. И сейчас затихорились и молчат
🤔30💋1
Forwarded from Denis Sexy IT 🤖
Кажется в индустрии разработки началась стадия принятия – стадия отвержения закончилась и теперь сеньор-разработчики открыто говорят о том что кодинг инструменты не хуже чем люди даже лучше, вот этот текст понравился – но таких постов с выхода Opus 4.6 / Codex 5.3 xhigh становится только больше:
Короче, автор не празднует новый мир, но и не верит, что его можно остановить как-то, и предлагает честно признать потерю и прожить её как потерю – не делать вид, что "ничего не меняется", а честно назвать происходящее концом привычного кодинг-ремесла и разрешить себе по этому погоревать
Очень трезвый взгляд на вещи👤
…нас поставили перед фактом: "я этого не просил", но это уже случилось. Не просил, чтобы "робот" сожрал все наши посты и куски кода, а потом пересказывал это кому-то, кто на этом зарабатывает. Не просил, чтобы роль программиста сдвинулась от создателя к инспектору на досмотре: не писать код самому, а проверить, не пронесли ли в прод что-то опасное
И при этом самая неприятная часть, в том, что эти инструменты реально работают. Настолько, что спор "хуже или лучше" быстро превращается в спор "ты уже попробовал нормально или просто принципиально сопротивляешься"
Дальше начинается прагматика: да, можно отказаться из моральных соображений, особенно если ты уже в конце карьеры. Но если ты сениор и ты принципиально "без АИ", то очень быстро рядом окажутся джуны, которые с АИ начинают выдавать результат с другой скоростью. И рано или поздно менеджмент задаст простой (и довольно мерзкий) вопрос: почему человеку платят больше, если он делает меньше, потому что ездит на старом велосипеде, а другие на реактивных ранцах
… взрослый человек с обязательствами, ипотекой, семьёй, как правило выберет не идеологически красивое решение, а то, которое сохраняет стабильность. Не потому что он вдруг "продался", а потому что ставки другие
…через годы мы будем рассказывать детям и внукам, как руками набирали синтаксис, как будто это что-то смешное и архаичное. Но внутри будем скучать. Скучать по ощущению ремесла – когда ты реально "трогаешь" код, лепишь его, как материал, долго сражаешься с багом до ночи, и в конце есть чувство авторства: "я сделал это", подпись художника под картиной, репозиторий, который не просто набор файлов, а часть твоей идентичности
Короче, автор не празднует новый мир, но и не верит, что его можно остановить как-то, и предлагает честно признать потерю и прожить её как потерю – не делать вид, что "ничего не меняется", а честно назвать происходящее концом привычного кодинг-ремесла и разрешить себе по этому погоревать
Очень трезвый взгляд на вещи
Please open Telegram to view this post
VIEW IN TELEGRAM
Read the Tea Leaves
We mourn our craft
I didn’t ask for this and neither did you. I didn’t ask for a robot to consume every blog post and piece of code I ever wrote and parrot it back so that some hack could make money off o…
1🥱63💯51💊28😢21❤🔥10👍10😁4💩4💋2🤪1
This media is not supported in your browser
VIEW IN TELEGRAM
https://www.instagram.com/reel/DUgbbyPDP06/?utm_source=ig_web_copy_link
Гений и второй админ снова постит, LETS GOOO
Гений и второй админ снова постит, LETS GOOO
💊44😁18🍌18🔥6💩4💅3👍1💯1
Love. Death. Transformers.
Photo
https://tecunningham.github.io/posts/2026-01-29-knowledge-creating-llms.html
говоря про способности ллм заменить человека на swe задачах и проверямых задачах я около убежден что мы будем иметь в течении нескольких летexpert human level для большей части работы которую не сложно проверить(код это вот все про это). При этом не сдохнет топовый ресерч, а все кто слабее условного senior в антропике в целом могут думать о професии сварщика.
говоря про способности ллм заменить человека на swe задачах и проверямых задачах я около убежден что мы будем иметь в течении нескольких летexpert human level для большей части работы которую не сложно проверить(код это вот все про это). При этом не сдохнет топовый ресерч, а все кто слабее условного senior в антропике в целом могут думать о професии сварщика.
tecunningham.github.io
Knowledge-Creating LLMs | Tom Cunningham
Tom Cunningham blog
💊58👍28🔥9😭8💯2
Forwarded from Just links
🧵 Thread • FixupX
Charlie (Zixi) Chen (@charllechen)
Why is nanochat's optimal tokens per param 8, much smaller than 20 from Chinchilla? We had similar findings in our NeurIPS work https://arxiv.org/abs/2512.05620. We hypothesize two key factors: (1) improved optimization and (2) higher-quality data. 1/n🧵
…
…
🆒3🔥1😍1💋1