Иван Закутний про
196 subscribers
130 photos
3 videos
161 links
Авторский канал про инженерию умных систем.
По всем вопросам: @m0n0x41d
Download Telegram
Привет! Что-то я чуть было не сдулся, но потом как вспомнил что обещал вчера тему продолжить. А слова надо держать.

Сдувался потому что как-то писал-писал, потом перечитал написанное, перечитал материал с курса и... понял что я все перепутал 🙂 И модель, и представление, и вообще все.

Вычитал и переписал нестыковки, стало получше, но все еще сложна.

Вот вроде бы простые такие вещи рассматриваем... вроде бы всем взрослым людям итак понятно должно быть. Ага, щас.

Анатолий Левенчук об этом часто предупреждал, так что норм. К концу курса рациональное мышление мы по идее распутаться должны, а там и с гордо поднятой головой пойдем уже во все тяжкие системной инженерии!

Напомню что обещанно мной было продолжить разбирательство на тему моделей, что это такое и зачем (с долей лукаства, на самом деле только подбираемся, но очень надобные для понимания вещи вбиваем в голову.)

🔗 Жмай 🔗

Очень открыт к обсуждению в комментариях 😊
Please open Telegram to view this post
VIEW IN TELEGRAM
🌭21
У меня еще на самом деле один вопрос-опрос. Я смотрю тут в средней по 35-45 просмотров, а это прям достаточно внимания чтобы еще более ответственно к контенту на канале подойти.

Опопосевать и тупо репостить скучные новости я не планирую.

Но в целом готов формат расширять, если новости вам интересны - так тому и быть, но уж извините заранее если будет больше "мышления письмом" о них, чем рядовой репост "ыыы бугага смотрите кот танцует / у человека окно сознания 2.5 секунды ОШАЛЕТЬ!" и тд.
🌭3
Я вот ради упражнения обращаю сейчас чуть больше внимания на всякие индустрийные статейки, которые вроде бы рассматривают какую то проблему.

Раньше многие из них я просто отсканировав наискосок выбрасывал в мусор, без осознания почему – складывалось субъективное представление что там полезной информации мало 🫨

Почему, теперь стало более формально понятным :)

Статейки большие, раздутые, картинками напиханные. А по сути толчение воды в ступе.

Осознание разрыва, о котором вчера я писал, в них— околонулевое.
Предлагаемое решение проблемы такое же «оторванное».

Там где про какие то метрики пишут, ситуация вроде бы лучше, но выводы опять подозрительные, за рамки головы писателя редко выходят. Намека на работу с представлениями коллег, других агентов - тоже мало.

Ну и че там с инженерией? 🤦‍♂️
Please open Telegram to view this post
VIEW IN TELEGRAM
2🌭1
VibeCodding это оскорбление чувств думающих и ценящих свое время людей.

Я тут таки попробовал на повышенной сложности в это СНОВА.

В чем заключалась эта сложность:

Во-первых, как я говорил ранее – я попробовал метод Харпера который вам репостил, но чуток расширил в OOAD, Design by Contract, чтобы более формальные инстурукции получались.

Тут кстати вроде бы не плохие спеки нагенерил Sonet!

Во-вторых – я взял язык и экосистему которую вообще никогда не трогал как разработчик.

Надо ли говорить что получилось? 😳

Ставьте Патрика Бейтмана если хотите продолжение истории.
Please open Telegram to view this post
VIEW IN TELEGRAM
8🌭11
Ну таки вот она история про VibeCodding с утра:

Прчитать целиком про удивительный и немногообещающий эксперимент Ивана первый раз в жизни "покодить" на языке программирования Swift, который до этого он в глаза не видел можно ТУТ

Можно, конечно, сразу проспекулировать на тему:

О да оттож оно понятно, Вань, что это за глупость такая, зачем на языке который не знаешь то а?

Я уже говорил – чтобы прощупать пределы, которые прощупать можно экспериментально.

Вот если бы оно с таких крутых инструкций формальных написало плюс-минус сразу что-то работающее, на ЛЮБОМ языке, тогда бы мы поговорили и про Вайб, и про замену всех программистов LLM'ами и прочий бред с желто-коричневых медиа 🙂
🌭1
Даже добавить нечего
🌭111
Чувак в Threads мне говорит, что Claude находит
логические баги

в коде хуже чем ChatGPT.

Ну, это уже уровень LLM кринж-оппортунизма недостижимый даже для меня!

P.S. он фронтендер 😬
Please open Telegram to view this post
VIEW IN TELEGRAM
3🌭1
Задумываетесь ли вы когда нибудь рефлексивно? Например используя метакогнитивную эвристику «что я знаю? И почему я думаю что я это знаю?»

Как часто? Осознаете ли эмоции вовремя, или они вами рулят?
Anonymous Poll
26%
Что? 🤪
32%
Иногда применяю, не получается вовремя затормозить всегда когда надо 👀
26%
Часто применяю, ежедневно как минимум раз «смотрю в свою голову» 🍵
16%
Этот мир абсолютно понятен ⚰️
🌭11
Я наконец дочитал фанфик Элиезера Юдковского – Гарри Поттер и методы Рационального Мышления.

Тяжело называть эту книгу фанфиком. Для меня это тот самый Гарри Поттер каким он должен быть (особенно с колокольни Ивана 31 лет, а не 13)

Мне было трудно ее читать, не потому что она читается сложно – напротив. Я не хотел чтобы эта книга заканчивалась :)

В каком то смысле она и не закончилась, потому что из под пера Элизера вышло еще много чего, и он здравствует. Следующая - Rationality: From AI To Zombies, ну и весь lesswrong.com ☺️

Невозможно называть ГПиМРМ художественным произведением, хотя и написано исключительно художественным языком. Это кладезь рефлексии и вполне себе entry point куда то… в более рациональное место, в портал научного мышления.

ГПиМРМ – тот Гарри Поттер которого не хочется бросать читать

Я так и не дочитал, еще в давние школьные годы, Гарри Поттера, бросил где то на принце полукровке, уж очень показалось затянутым и вообще жалко было Сириуса :)

Я настоятельно рекомендую познакомиться с этой книгой всем, а так же с LessWrong, и с “самим Элизером“

Элизер, кстати – автодидакт. Высшего образования у него нет :)

А еще это один из немногих людей чье мнение про AI, LLM, и наверное мнение вообще, мне действительно интересно.

Безумно благодарен человек, который меня на эту книгу и движуху навел, впрочем я благодарен ему был и так, ибо это далеко не первый и бесценный подарок 🙏
Please open Telegram to view this post
VIEW IN TELEGRAM
5🌭11
С гордостью заявляю – я в своей карьере ни разу не удалил базу данных случайно.

Даже локальную для разработки.

Все свои базы я всегда удаляю в состоянии максимальной осознаности 🤣
Please open Telegram to view this post
VIEW IN TELEGRAM
32🌭1
Обожаю Антропик.

Не только за крутые модели, а еще и за крутые исследования и статьи, написанные еще и языком вполне человеческим 🗒

Последняя работа по аудиту моделей со скрытым умыслом вообще огонь.

Модели со скрытым умыслом, это такие модели которые эту свою цель не явным образом преследуют.

Это такие модели у которых в виду хренового обучения эти скрытые цели появляются, выглядеть это будет как воспроизводимые откровенно ошибочные ответы на категорию вопросов, натуральные биасы которые можно эксплуатировать.

А еще эти биасы можно «злоумышленно» обучить.

Потенциал тут большой, от информационной войны до злого вызова функций, так что исследование очень хорошее и правильное.

Короче, провели Антропик такой вот аудит, по канонам инфосеков - красная и синяя команда.

Красная команда наобучала моделей с биасами, используя reward models, которые давали «не правильный reward” 🥳

А синие команды должны были в слепую их искать (ну или не очень в слепую.)

У синих были разные вводные, кому то было разрешено смотреть в датасет обучения (ez катка), кому то поведенческие допросы устраивать, а кому то залезть моделям “в башку” с помощью sparse autoencoders (это отдельная крутая штука которую разработал в Антропик, в статье про аудит есть линк на бумагу)

А кому то… дали доступ только к API.

Результат такой что через доступ API хренушки вы эти biases / скрытые цели распознаете.

Тревожно, особенно если (когда) обучать модели станет намного проще в смысле требований к железу.
Не стоит так же забывать про APT группировки, например что стоит Китаю…

а погодите, ничего 😎

Их пробивные модели на предмет биасов сразу на мемы расползаются после релизов…

ЧЕЙ ТАЙВАНЬ, а???

Ну шутки шутками, а так то стрем.

Во тут оригинал, и все в нем ссылки на оригинальные документы, проваливайтесь.
Please open Telegram to view this post
VIEW IN TELEGRAM
🌭1
Пусть в некой деревне живёт брадобрей, который бреет всех жителей деревни, которые не бреются сами, и только их.

Бреет ли брадобрей сам себя?
Anonymous Poll
7%
Бреет!
14%
Не бреет!
79%
АаааААааАааааА! Парадокс Рассела!!! 😢
🌭1
Пробовали дуолинго Макс? 👋

Это там где они звонки с архетипом пубертатной дурочки Лили прикрутили.

Я не платил за сову подписку принципиально весь прошлый год, пока они на НГ не предложили аж на целый 2025 за цену 1-2 месяца купить весь год.

Макс они периодически попробовать на пару дней дают)

Вообще, не смотря на то что диалог с ней медленный, мозги ей сбивает если перебить, контекст между диалогами звонками она сохраняет неплохо.

Фича очень простая, но крутая же! Только в дуолинго чет плосковато, какие то факты о тебе оно помнит долго, какие то слишком быстро дропает и не развивает в диалогах. Не понятно чем руководствуется.

Мейнстрим это щас памятью моделей называет, ага, реляционной 😆

Как бы там ни было, любой проект в котором вы делаете conversational ассистента, такой вот NLI (natural language interface) сейчас делать без хоть сколько нибудь продуманного контекста между диалогами - зашквар ИМХО!

Если только у вас бизнес модель к конкретным конверсейшенам не привязана, тогда старый добрый контекст диалога.

А если ассистент типа B2C, да и узко направленный, круто ведь когда он о вас помнит и понимает не только из диалога.

И да, это именно та Memory из ChatGPt которой уже стукнул год, и я либо слепой, либо правда не вижу чтобы на рынке был много продуктов которые эту фичу внедряют.

Дайте знать, если первое 🤓
Please open Telegram to view this post
VIEW IN TELEGRAM
🌭11
Примешь синюю таблетку — и сказке конец. Завтра утром ты снова окажешься за своим Lenovo Thinkpad, пытаясь разобраться в наследственной лапше на Java, пока недовольные проджект-менеджеры засыпают тебя задачами с нереальными сроками.
Мир корпоративной реальности останется незыблемым, а этот разговор превратится лишь в странный сон.

Примешь красную таблетку — войдешь в страну чудес. Мир, где системы вложены в системы, где рекурсия порождает новые уровни понимания, где масштаб уступает место взаимосвязям. Ты увидишь странные петли Хофштадтера, игру уровней и границ абстракции, узришь, что любая система — лишь отражение более глубоких закономерностей выразимых в мышлении.

😊
Please open Telegram to view this post
VIEW IN TELEGRAM
7🌭11
NotebookLM от Google - это киллер. Мне очень жаль что этот тул каким то образом проходил мимо меня до вчерашнего дня.

Понятно что Sonnet остаются отличными моделями для всего и в том числе как хороший помощник в программировании, кто бы там что про ChatGPT не говорил – спорить не хочу 😘

Но NotebookLM на данный момент времени вверг меня в шок удивления который я давно не испытывал 😳

Я ждал что Google выкинет что-то такое, ждал так долго, улыбаясь на предыдущими Gemini (ну а в чем они объективно хороши были, в смысле намного лучше Антропиковских и OpenAI моделей чтобы вот прям их юзать каждый день?)...

Так долго что потерял бдительность и вообще пропустил новость и про NotebookLM первой версии, и про обновленный с Plus подпиской, и вот этот самый Plus выглядит очень скромно в своем описании, но это атомная бомба когда присматриваешься поближе и пробуешь на вкус 💥

Что такое NotebookLM? Это AI инструмент от Google в котором можно создавать ноутбуки (лол), чем то похоже на проекты Claude, только вот добавлять туда можно:

- Текст
- PDF документы
- Ссылки на веб страницу
- Ссылку на YouTube видео (не из всех может вытащить транскрибцию)
- Google Docs
- Google Slides


Не то чтобы мне очень нужны были Slides, но кому то может быть очень в тему, и я надеюсь что google расширят типы источников (если туда голосовухи можно будет записывать то точно гг вп).

Пока все еще похоже на остальные чатбот клиенты, да? Вроде бы везде можно файлики приклеплять...

Только вот NotebookLM обещает что чат по этим источникам будет работать хорошо, точно и без сильных галлюцинаций.

И знаете что? Оно похоже правда так работает. Я добавил 29 источников, большая часть из которых видео по 30 минут... результат убил, в хорошем смысле.

Но об этом далее, сейчас к тому почему Plus - киллер фича.

1️⃣Не 100 блокнотов, а 500, и в каждом лимит источников не 50... А 300!!!

2️⃣ А еще в чат без плюса можно в день делать 50 запросов, а с плюсом - 500. Ответы на запросы в чат не сохраняются по дефолту, нужно жмать на кнопку для этого - тогда ответ как заметка сохранится отдельно от источников. Если нужно - можно эту заметку конвертировать в источник...

3️⃣ Далее - по вашим источникам NotebookLM может генерировать аудиопересказы, в формате такого подкаста. Без плюса 3 пересказа в день, а с плюсом - 20.

Пересказы ОЧЕНЬ ХОРОШИЕ, звучат как подкаст почти без артефактов, где 2-3 участника в бурном диалоге освещают тему. Звучат они НАМНОГО лучше чем Voiсe в ChatGPT. Единственный "минус" того, что такие подкасты слишком информативны, ты не включишь это фоном чтобы потупить, ибо между фразами "собеседники" зачастую делают слишком короткие паузы. Это надо впитывать ушами внимательно.

Вы можете сказать - ну круто, но с ChatGPT можно поговорить, и он ответит вроде бы даже связно...

ЗНАЕТЕ ЧТО?!?!?! 🏆

В NotebookLM в режиме беты сейчас в эти аудиопересказы МОЖНО ВРЫВАТЬСЯ С ВОПРОСАМИ, и эти вопросы "участники подкаста" настолько живо и с интересом подхватывают, и так подробно освещают что я поймал впервые и настолько сильную, буквально ужасающую зловещую долину.

Я в восторге, literally. За последний год я видел и трогал много всяких штук вроде "поговори с PDF" и тд – все одно, и все плюс-минус фигня, перекрывались Claude проектами с документами в контексте и быстро забывались.

NotebookLM – это нечто большее, достаточно точное.

Я чувствую что ближайшее время все свои проекты, исследования и возможно даже заметки я буду все больше и больше вести в NotebookLM - особенно в plus с лимитом по 300 документов... Я много пишу, и могу теперь работать со своими написаниями намного эффективнее, чем просто вычитывать их через полнотекстовый поиск.

Но даже бесплатный NotebookLM с меньшими лимитами это то, что вы обязательно должны попробовать, если у вас есть vpn вы занимаетесь каким то исследованиями, вы автодидакт, или хоть сколько нибудь практикуете "мышление письмом".


p.s. Если на самом деле первопе впечатление обманчиво, и эта фигня будет плохо работать на 50+ документах я вам обязательно отпишусь 🙂
Please open Telegram to view this post
VIEW IN TELEGRAM
🌭11
Audio
В продолжение разгона про NotebookLM – вот какой аудио оно сгенерировало на тему воронок продаж, при том на момент генерации в источниках было только 2 документа - результаты deep research на тему воронок продаж, и пару ответов от клода на ту же тему.

Возможно оно само ре-генериует аудио когда новые источники добавляются в ноутбук, но я не уверен.

Короче, прост послушайте вступление 💰
Please open Telegram to view this post
VIEW IN TELEGRAM
🌭11
Продолжаем разбираться с собранностью.

🔗 Ссылка на телеграф

Наконец от пространных рассуждений и общего введения в тему мы подкрадываемся к прикладным скиллам 💪

Сегодня мы начинаем различать два вида интуиций и вводим понятие Дребезга - что это такое, откуда берется, почему важно вовремя его отлавливать, и немного задумываемся снова о том как с ним работать.

Немного, потому что с распознавания дребезга начинается вся остальная системная инженерия, а это огромный пласт "мастерств" и скиллов которые мы с вами будем изучать весь этот год 🤑
Please open Telegram to view this post
VIEW IN TELEGRAM
🌭2
В редакцию канала прислали, с пометкой: "Пацаны, в твиттере вайбкоддинг случился"
2🌭111