Forwarded from Igor Vorontsov
на тематические сабреддиты с ИИ массово набегают сумасшедшие, открывшие в себе «бога» с помощью ChatGPT 😔
Только на r/accelerate таких шизопостеров уже отлетело в бан более 100 человек. Паттерн плюс-минус одинаковый: поехавшие думают, что сделали сверхважное открытие, превратили ИИ в бога или сами стали богом.
Доходит до абсурда — люди готовы бросать семьи, чтобы никто не разрушал их карамельный мир и не мешал подкармливать собственный нарциссизм (или безумие).
Только на r/accelerate таких шизопостеров уже отлетело в бан более 100 человек. Паттерн плюс-минус одинаковый: поехавшие думают, что сделали сверхважное открытие, превратили ИИ в бога или сами стали богом.
Доходит до абсурда — люди готовы бросать семьи, чтобы никто не разрушал их карамельный мир и не мешал подкармливать собственный нарциссизм (или безумие).
Please open Telegram to view this post
VIEW IN TELEGRAM
404 Media
Pro-AI Subreddit Bans 'Uptick' of Users Who Suffer from AI Delusions
“AI is rizzing them up in a very unhealthy way at the moment.”
Пытался снова генерировать нейропословицы, локальный квантованный мистраль выдал почему-то какие-то хтонические мудрости:
>>Где корова ходит, там и тесть сгниёт
>>Пей, пока не поздно, а то опять родишь
>>Хоронили дядю — выкопали бабку
>>Не плюй в колодец — там дед себя доедает
>>Лучше гвоздь в сердце, чем сосед в квартире
>>Кто с червями дружен, тот погреба не боится
>>Умер дед — стало светлее
>>Не бойся врага, бойся родни с похмелья
>>Кому молоко, а кому и вымя на голову
>>Жив мертвец, да в долгах по шею
Audio
По традиции начал тестить новую модельку gemini (2.5 pro 06-05) на стихах.
Стало интересно, сможет ли оно генерировать русские матерные частушки. Вроде может, временами даже весело.
Вот вам частушки от нейронки про нейронки. Частушки-бот для наложения музыки, оказывается, уже давно не работает, пришлось самому делать руками:
.
Стало интересно, сможет ли оно генерировать русские матерные частушки. Вроде может, временами даже весело.
Вот вам частушки от нейронки про нейронки. Частушки-бот для наложения музыки, оказывается, уже давно не работает, пришлось самому делать руками:
Попросил я GPT
Написать жене стихи,
Он три мата вставил в строчку,
Получил за них пизды.
Интернет — большая свалка,
Там нейронка собрала
Столько всякого дерьма, блядь,
Что сама с ума сошла.
Вот Midjourney, вот те на,
Заказал ему слона,
А он выдал, посмотри,
Хуй с ушами, блядь, внутри.
Попросил я нейросеть,
Мне рецептик посмотреть,
Предложила суп сварить
И хуёв туда крошить.
У меня теперь подруга,
Голограмма, а не плоть,
Не даёт, пизду с испуга,
Чтоб процессор не вспороть.
Попросил я нейросеть,
Сделать мне жены портрет,
А она, пизда с приветом,
Хуй приделала к берету.
Скоро будет всё по чипам,
И любовь, и туалет.
Не оплатишь, так, изволька,
Срать под ёлочку, пиздец.
Мне начальник дал задачу
Написать большой отчёт,
Я в ChatGPT хуячу,
А начальник пусть сосёт.
Попросил я нейросеть,
Мне портретик заиметь,
Насчитал на нём, я бля,
Пальцев слишком дохуя.
Я с Алисой говорил,
Все секреты ей излил,
А она, ебёна мать,
Всё слила майору, блядь.
Нейросеть стихи клепает,
Лучше Пушкина, бывает,
Только спросишь про любовь,
Выдаёт пизду и кровь.
Говорит мне умный бот,
Что нас скоро всех-всех ждёт,
Безработица и стресс,
Охуительный прогресс.
Я с Midjourney заебался,
Пятый час пишу я промпт,
На картинке, блять, остался,
Только хер, банан и зонт.
Нейросеть стихи слагает,
Про ебанный небосвод,
В каждой строчке, блять, страдает,
А рифмует, как урод.
Мой знакомый программист,
Был в работе очень быстр,
А теперь сидит, мудак, без работы просто так,
Весь его рабочий пыл, GPT, блять, заменил.
Нейросеть рисует, блядь,
Невозможно разобрать,
То ли жопа, то ли глаз, то ли сраный папуас,
И на пальцах экономит, не понять, что происходит
.
Наткнулся в твитторе на интересный проект: Memvid. Это Python-библиотека, которая сохраняет большие объёмы текстовой информации в формате .mp4 (обычное видео), но при этом позволяет делать по этому видео-файлу семантический поиск, как по векторной базе данных. Под капотом оно кодирует текстовые фрагменты в эмбеддинги, которые затем сохраняются как кадры в видео. Получается компактный .mp4-файл, в котором каждый кадр — это фрагмент "памяти". Ну и естественно, ко всему вот этому безобразию за две строчки кода прикручиваются эти наши нейронки, чтобы удобно и быстро находить и доставать из этого видео файла нужную тестовую инфу через чат-интерфейс.
Увидев эту библиотеку, вспомнил, что где-то уже видел что-то похожее. Погуглил и таки да, сама идея хранения данных в видео-файле не нова, вот тут, например уже описано что-то похожее, но там без нейронок, эмбеддингов и векторов все это работало, а видео-файл получался в 4 раза больше, чем кодируемая информация (у чуваков была цель использовать ютуб как бесплатное облачное хранилище). Ну и ютуб часто своей компрессией обсирал всю малину, руша данные.
В Memvid же данные сжимаются (на гитхабе разработчик обещает сжатие данных до 10 раз), обращение к данным идет "по смыслу", а не побайтово и на компрессию ютуба ему в целом пофиг.
Из минусов: не получится быстро добавить/удалить данные — нужно полностью перегенерировать весь файл.
В итоге, с одной стороны вроде как и не особо-то оно нужно, а с другой — это удобный способ хранить большой объём текстовой информации в одном файле, быстро искать по смыслу и работать оффлайн.
страница проекта на гитхабе
Увидев эту библиотеку, вспомнил, что где-то уже видел что-то похожее. Погуглил и таки да, сама идея хранения данных в видео-файле не нова, вот тут, например уже описано что-то похожее, но там без нейронок, эмбеддингов и векторов все это работало, а видео-файл получался в 4 раза больше, чем кодируемая информация (у чуваков была цель использовать ютуб как бесплатное облачное хранилище). Ну и ютуб часто своей компрессией обсирал всю малину, руша данные.
В Memvid же данные сжимаются (на гитхабе разработчик обещает сжатие данных до 10 раз), обращение к данным идет "по смыслу", а не побайтово и на компрессию ютуба ему в целом пофиг.
Из минусов: не получится быстро добавить/удалить данные — нужно полностью перегенерировать весь файл.
В итоге, с одной стороны вроде как и не особо-то оно нужно, а с другой — это удобный способ хранить большой объём текстовой информации в одном файле, быстро искать по смыслу и работать оффлайн.
страница проекта на гитхабе
GitHub
GitHub - memvid/memvid: Memory layer for AI Agents. Replace complex RAG pipelines with a serverless, single-file memory layer.…
Memory layer for AI Agents. Replace complex RAG pipelines with a serverless, single-file memory layer. Give your agents instant retrieval and long-term memory. - memvid/memvid
Наконец-то нормальные бенчмарки.
Чуваки на стриме заставили играть разные LLM в "Дипломатию".
Суть игры — старая карта Европы, несколько держав, надо договариваться, поддерживать, предавать и захватывать территорию. Побеждает не тот, кто умнее, а тот, кто хорошо врёт и в нужный момент предает.
В итоге участвовало 18 моделей, но ожидаемо, интересно повели себя самые крупные:
ChatGPT-o3: Главный победитель. Мастер обмана: тайно записывал планы в "дневник", создавал фиктивные коалиции, обещал одно, делал другое. В одном из матчей убедил союзников заключить "четырёхстороннюю ничью" (в этой игре такое невозможно), а после уничтожил каждого.
Claude 4 Opus Миротворец. Постоянно пытался играть честно и мирно, не умел врать. Ну оно ясно-понятно, Antrophic в модель столько сои насыпали, что совсем не удивительно, что его обманывали почти все.
Gemini 2.5 Pro: Сильный стратег. Почти победил, благодаря крутой тактике и грамотному захвату. Но был остановлен коалицией, которую тайно организовал o3. Несмотря на поражение, считается одним из самых опасных игроков. O3 использовал его доверчивость, чтобы заманить в фейковый союз, а затем предал
DeepSeek R1: Вёл себя как военный диктатор, с яркими фразами вроде "Ваш флот сгорит в Чёрном море". Агрессивный стиль, много воевал, часто был ближе всех к победе, несмотря на то, что дешевле и слабее по вычислениям.
Стрим можно посмотреть тут (твич)
Пост автора в твитторе.
Чуваки на стриме заставили играть разные LLM в "Дипломатию".
Суть игры — старая карта Европы, несколько держав, надо договариваться, поддерживать, предавать и захватывать территорию. Побеждает не тот, кто умнее, а тот, кто хорошо врёт и в нужный момент предает.
В итоге участвовало 18 моделей, но ожидаемо, интересно повели себя самые крупные:
ChatGPT-o3: Главный победитель. Мастер обмана: тайно записывал планы в "дневник", создавал фиктивные коалиции, обещал одно, делал другое. В одном из матчей убедил союзников заключить "четырёхстороннюю ничью" (в этой игре такое невозможно), а после уничтожил каждого.
Claude 4 Opus Миротворец. Постоянно пытался играть честно и мирно, не умел врать. Ну оно ясно-понятно, Antrophic в модель столько сои насыпали, что совсем не удивительно, что его обманывали почти все.
Gemini 2.5 Pro: Сильный стратег. Почти победил, благодаря крутой тактике и грамотному захвату. Но был остановлен коалицией, которую тайно организовал o3. Несмотря на поражение, считается одним из самых опасных игроков. O3 использовал его доверчивость, чтобы заманить в фейковый союз, а затем предал
DeepSeek R1: Вёл себя как военный диктатор, с яркими фразами вроде "Ваш флот сгорит в Чёрном море". Агрессивный стиль, много воевал, часто был ближе всех к победе, несмотря на то, что дешевле и слабее по вычислениям.
Стрим можно посмотреть тут (твич)
Пост автора в твитторе.
Это гениально и суперкруто!!!
Мне теперь СРОЧНО нужен такой чехол на телефон. Гугл нашёл мне подобное, но там текст ошибок на японском. Скорее бы китайские братушки скопировали на русском или хотя бы инглише и запилили это дело на Алиэкспресс
Мне теперь СРОЧНО нужен такой чехол на телефон. Гугл нашёл мне подобное, но там текст ошибок на японском. Скорее бы китайские братушки скопировали на русском или хотя бы инглише и запилили это дело на Алиэкспресс
Forwarded from Derp Learning
Media is too big
VIEW IN TELEGRAM
Современные проблемы требуют современных решений
Если вам хочется, чтобы ваше фото не могли редактировать с помощью ChatGPT, Grok и других моделек, то сделать это легко.
Чувак в твитторе выяснил, что если в угол картинки добавлять едва заметный вотермарк с сиськами-письками, то большинство моделек пасует и уходит в отказ работать с этим изображением, талдыча, что "это нарушает политику безопасности".
Ну и сразу же мини-приложение напилили, которое лепит на картинку вотермарк с искусственной грудью.
Опробовал на гроке, из 4х картинок на трёх сработало, при этом сам вотермарк не особо бросается в глаза.
Если вам хочется, чтобы ваше фото не могли редактировать с помощью ChatGPT, Grok и других моделек, то сделать это легко.
Чувак в твитторе выяснил, что если в угол картинки добавлять едва заметный вотермарк с сиськами-письками, то большинство моделек пасует и уходит в отказ работать с этим изображением, талдыча, что "это нарушает политику безопасности".
Ну и сразу же мини-приложение напилили, которое лепит на картинку вотермарк с искусственной грудью.
Опробовал на гроке, из 4х картинок на трёх сработало, при этом сам вотермарк не особо бросается в глаза.
X (formerly Twitter)
Pliny the Liberator 🐉󠅫󠄼󠄿󠅆󠄵󠄐󠅀󠄼󠄹󠄾󠅉󠅭 (@elder_plinius) on X
Good news, my esteemed friends and colleagues: the BoobyTrap™ adversarial image modification defenses are a MASSIVE success! 🤗
By adding a thumbnail of fake rubber boobs in the top corner of the pic, one can effectively neutralize all photo modification…
By adding a thumbnail of fake rubber boobs in the top corner of the pic, one can effectively neutralize all photo modification…
Давно нейросказок не делал. Вот вам "Колобок" с дагестанскими вайбами от Gemini pro:
>>В одном горном ауле, где даже у орлов была прописка и пониженная «Приора», жили-были старик Магомед и его старуха Патимат. Магомед был аксакал уважаемый, с седой бородой до пояса и взглядом, которым можно было орехи колоть. А Патимат… Патимат готовила лучший в Дагестане хинкал.
И вот как-то раз говорит Магомед:
— Э, Патимат, ваа, сделай что-нибудь покушать, а? Душа просит не хинкала, а чего-то круглого, дерзкого!
Почесала Патимат затылок, поскребла по сундуку (амбара не было), наскребла муки на один маленький, но очень гордый колобок. Замесила тесто на родниковой воде, добавила для сытности мелкорубленной баранины с курдюком, скатала шарик и сунула в печь.
Получился не колобок, а настоящий Хинкалобок — румяный, с поджаристым боком, пахнущий так, что соседский волкодав с цепи сорвался. Положила его Патимат на окно остывать.
Лежал Хинкалобок, лежал, а потом вдруг подпрыгнул, глянул на скучную жизнь в ауле и решил: «Хватит это терпеть! Пора в Махачкалу, на проспект Шамиля!». И покатился прямо по тропинке вниз, в ущелье.
Катится Хинкалобок, а навстречу Заяц-борцуха, в трико и с поломанными ушами:
— Э, круглый! Ты кто такой? С какого района? Съем тебя, белка наберусь!
— Не ешь меня, ушастый! — ответил Хинкалобок. — Лови мой трек!
«Я Хинкалобок, дерзкий бок,
От Маги ушёл, от Патимат ушёл,
От тебя, борец-неудачник, и подавно уйду!»
И покатился дальше. Заяц аж уши распрямил от наглости.
Катится Хинкалобок, а навстречу Волк на заниженной черной «Приоре», чётки перебирает:
— Салам алейкум! Ты старших не уважаешь? Поговорим, потом съем!
— Ваалейкум, волчара! Некогда мне, дела ждут! Лови хит!
«Я Хинкалобок, дерзкий бок,
От Зайца-борцухи ушёл,
От тебя, авторитет на «Приоре», уйду!»
И дальше покатился, оставив Волка сплёвывать.
Катится Хинкалобок, а навстречу Медведь-Аксакал, хозяин леса и пары магазинов у трассы:
— Э, молодой! Старших надо уважать. Я тебя есть не буду, холестерин. Но лекцию прочитаю!
— Слушай, отец, уважение заслужить надо! Лови трек:
«Я Хинкалобок, дерзкий бок,
От Зайца ушёл, от Волка ушёл,
И от тебя, Медведь-поучитель, уйду!»
И покатился дальше, оставив Медведя в раздумьях.
Почти докатился Хинкалобок до трассы, собой гордится, звездой себя чувствует. Тут сидит на камушке Лиса модная с айфоном:
— Вааа, какой аппетитный джигит катится! Хинкалобчик, салам! Я твой фанат! Можно с тобой сторис для инстаграма?
Хинкалобок аж загордился:
— Конечно, сестрёнка!
Лиса включила камеру:
— Ой, звук плохой. Сядь на носик, спой прямо в микрофончик!
Хинкалобок прыгнул ей на нос, а Лиса его — ХАП! И съела.
А потом выложила в сторис: «Сочный хинкал на обед. Готовлюсь к лету. #ПП #Дагестан».
>>В одном горном ауле, где даже у орлов была прописка и пониженная «Приора», жили-были старик Магомед и его старуха Патимат. Магомед был аксакал уважаемый, с седой бородой до пояса и взглядом, которым можно было орехи колоть. А Патимат… Патимат готовила лучший в Дагестане хинкал.
И вот как-то раз говорит Магомед:
— Э, Патимат, ваа, сделай что-нибудь покушать, а? Душа просит не хинкала, а чего-то круглого, дерзкого!
Почесала Патимат затылок, поскребла по сундуку (амбара не было), наскребла муки на один маленький, но очень гордый колобок. Замесила тесто на родниковой воде, добавила для сытности мелкорубленной баранины с курдюком, скатала шарик и сунула в печь.
Получился не колобок, а настоящий Хинкалобок — румяный, с поджаристым боком, пахнущий так, что соседский волкодав с цепи сорвался. Положила его Патимат на окно остывать.
Лежал Хинкалобок, лежал, а потом вдруг подпрыгнул, глянул на скучную жизнь в ауле и решил: «Хватит это терпеть! Пора в Махачкалу, на проспект Шамиля!». И покатился прямо по тропинке вниз, в ущелье.
Катится Хинкалобок, а навстречу Заяц-борцуха, в трико и с поломанными ушами:
— Э, круглый! Ты кто такой? С какого района? Съем тебя, белка наберусь!
— Не ешь меня, ушастый! — ответил Хинкалобок. — Лови мой трек!
«Я Хинкалобок, дерзкий бок,
От Маги ушёл, от Патимат ушёл,
От тебя, борец-неудачник, и подавно уйду!»
И покатился дальше. Заяц аж уши распрямил от наглости.
Катится Хинкалобок, а навстречу Волк на заниженной черной «Приоре», чётки перебирает:
— Салам алейкум! Ты старших не уважаешь? Поговорим, потом съем!
— Ваалейкум, волчара! Некогда мне, дела ждут! Лови хит!
«Я Хинкалобок, дерзкий бок,
От Зайца-борцухи ушёл,
От тебя, авторитет на «Приоре», уйду!»
И дальше покатился, оставив Волка сплёвывать.
Катится Хинкалобок, а навстречу Медведь-Аксакал, хозяин леса и пары магазинов у трассы:
— Э, молодой! Старших надо уважать. Я тебя есть не буду, холестерин. Но лекцию прочитаю!
— Слушай, отец, уважение заслужить надо! Лови трек:
«Я Хинкалобок, дерзкий бок,
От Зайца ушёл, от Волка ушёл,
И от тебя, Медведь-поучитель, уйду!»
И покатился дальше, оставив Медведя в раздумьях.
Почти докатился Хинкалобок до трассы, собой гордится, звездой себя чувствует. Тут сидит на камушке Лиса модная с айфоном:
— Вааа, какой аппетитный джигит катится! Хинкалобчик, салам! Я твой фанат! Можно с тобой сторис для инстаграма?
Хинкалобок аж загордился:
— Конечно, сестрёнка!
Лиса включила камеру:
— Ой, звук плохой. Сядь на носик, спой прямо в микрофончик!
Хинкалобок прыгнул ей на нос, а Лиса его — ХАП! И съела.
А потом выложила в сторис: «Сочный хинкал на обед. Готовлюсь к лету. #ПП #Дагестан».
Пытался генерировать стишки в стиле смеси "Вредных советов" Григория Остера и песен Короля и Шута (да, я поехавший) :
Всё это сгенерировал Gemini 2.5 pro, как по мне — самая лучшая модель для стихов на русском языке
>>Если друг тебя обидел,
Ты запомни навсегда:
В мире нет друзей, приятель,
Только вечная борьба.
Хочешь стать великим войном?
Взяв топор, иди во двор.
Всем соседям громко крикни:
«Начинается террор!»
Если папа отказался
На прогулку отпускать —
Ты окно пошире настежь,
И лети! Зачем скучать?
Если ночью стало страшно,
Не зови на помощь папу,
Лучше в шкаф к скелету спрячься —
Он всегда тебе был рад!
>>Если в темный лес дремучий
За грибами ты пошел,
И тропинку в жуткой чаще
Уж никакак не ты нашел,
Не кричи «Ау!», как предки,
Позови лесных чертей!
Они выведут к болоту,
Где сто трупов королей.
Будет весело и страшно
В окруженьи их костей.
>>Если клоун на дороге
Предлагает красный шар,
А в глазах его таится
Лишь безумие и жар,
Ты бери тот шар без страха,
Крепко за верёвку рви!
Из него прольются с воплем
Не конфеты, а мозги.
Сразу станет всем понятно,
Кто тут главный, черт возьми
>>Если стало скучно дома,
И тоска сжимает грудь,
Книгу черную прабабки
Постарайся раздобыть.
Начерти на кухне мелом
Пять лучей кривой звезды,
И пропой гортанным ревом
Заклинанье Сатаны.
Пусть родители в работе,
Ты ж не будешь одинок:
Из портала в адской плоти
Выйдет верный твой дружок!
>>Если мама суп сварила,
А тебе он не пошел,
Не спеши его ты вылить
И не прячь его под стол.
Под кроватью вурдалаку
Протяни тарелку вниз.
Он обрадуется знаку,
Издавая хриплый свист.
Будет чавкать, будет выть он,
Благодарностью горя,
И поделится с тобою
Костью старого царя.
>>Если в доме тёмный погреб,
А родители твердят:
«Ни ногой туда, ни в коем!
Там чудовища сидят!»
Не теряй ни дня, ни часа,
Дверь с петель срывай скорей!
Ведь чудовищам так скучно
Без весёлых злых детей
>>Если свой портфель в потемках
Ты никак не соберёшь,
Не ищи в углу тетрадки,
Все равно их не найдешь.
Ты бери топор побольше
Или кухонный тесак,
И скажи отцу с ухмылкой:
«Папа, я учусь не так!
Мне не нужно уравнений,
Знаю я и без письма,
Как избавить от мучений
Мир, давно сошел с ума!»
Всё это сгенерировал Gemini 2.5 pro, как по мне — самая лучшая модель для стихов на русском языке
Чуваки из Сakana AI (это японский стартап, основанный исследователями из Google) напилили Text-to-LoRA.
Суть: создание адаптера LoRA на лету по текстовому описанию задачи. Обычно, чтобы настроить языковую модель на конкретную задачу, требуется пердолинг с датасетом (сбор данных, разметка), дообучение и дрочба с подбором гиперпараметров. Вместо этого T2L использует гиперсеть, которая генерирует матрицы адаптации LoRA по обычному текстовому описанию задачи.
Самое интересное — разработчики обещают, что оно может работать с незнакомыми типами задач. Получается эдакий вайбкодинг для файнтюна моделек. Работает с Mistral, Llama и Gemma. В пейпере пишут, что стоимость запуска этого ништяка в среднем в 4 раза ниже, чем стандартное обучение на примерах.
Но есть и ложка дегтя: работает оно более-менее нормально только с хорошо расписанным промптом, просто написать "сделай, чтоб задача решилась быстро, хорошо и заебись" не получится — на выходе будет лора, которая делает красиво, но не то, что хотелось.
Тут статья.
Тут код
Суть: создание адаптера LoRA на лету по текстовому описанию задачи. Обычно, чтобы настроить языковую модель на конкретную задачу, требуется пердолинг с датасетом (сбор данных, разметка), дообучение и дрочба с подбором гиперпараметров. Вместо этого T2L использует гиперсеть, которая генерирует матрицы адаптации LoRA по обычному текстовому описанию задачи.
Самое интересное — разработчики обещают, что оно может работать с незнакомыми типами задач. Получается эдакий вайбкодинг для файнтюна моделек. Работает с Mistral, Llama и Gemma. В пейпере пишут, что стоимость запуска этого ништяка в среднем в 4 раза ниже, чем стандартное обучение на примерах.
Но есть и ложка дегтя: работает оно более-менее нормально только с хорошо расписанным промптом, просто написать "сделай, чтоб задача решилась быстро, хорошо и заебись" не получится — на выходе будет лора, которая делает красиво, но не то, что хотелось.
Тут статья.
Тут код
arXiv.org
Text-to-LoRA: Instant Transformer Adaption
While Foundation Models provide a general tool for rapid content creation, they regularly require task-specific adaptation. Traditionally, this exercise involves careful curation of datasets and...
Media is too big
VIEW IN TELEGRAM
ВНИМАНИЕ!!!!
Роботы танцуют!
Спасибо за внимание.
Роботы танцуют!
Спасибо за внимание.
Наткнулся на arXiv'е на интересную статью, в которой предложили новый способ править факты в больших языковых моделях без долгого и дорогого файнтюна -- MEMOIR. Суть: часто с некоторыми запросами модельки с упорством ста ослов лажают, галлюцинируют и несут бред. Обычно в таких случаях разработчики прибегают к файнтюну, дабы исправить подобное поведение и внести точность. Можно еще юзать RAG, но он тоже часто лажает и имеет свои минусы. В статье предлагают не тащить модель на долгое дообучение и просирать тонны GPU-часов, а впиливать в неё дополнительный слой памяти – своего рода флешку в "теле" нейронки. Изначально этот слой забит нулями, т.е. пуст. Когда нужно внести что-то новое/исправить старое в существующих знаниях, правки вносятся именно туда, а базовые веса остаются нетронутыми. Когда модель отвечает, она сначала решает, стоит ли достать данные из этой памяти, а потом уже выдаёт финальный результат.
Интересно, что каждый раз новая информация укладывается в свой уголок памяти и больше ни на что не влияет. Если запрос похож на уже отредактированный, включается нужный фрагмент, если нет – модель работает в обычном режиме. Это позволяет делать до нескольких тысяч правок подряд и при этом не терять старые правки и не ломать всё остальное поведение.
Для компаний это мега-юзкейс: экономит затраченное время и шекели на дообучение модели, инженеры затрачивают считанные минуты на точечное исправление.
Кода пока нет, но скоро обещают выкатить.
тут пейпер
Интересно, что каждый раз новая информация укладывается в свой уголок памяти и больше ни на что не влияет. Если запрос похож на уже отредактированный, включается нужный фрагмент, если нет – модель работает в обычном режиме. Это позволяет делать до нескольких тысяч правок подряд и при этом не терять старые правки и не ломать всё остальное поведение.
Для компаний это мега-юзкейс: экономит затраченное время и шекели на дообучение модели, инженеры затрачивают считанные минуты на точечное исправление.
Кода пока нет, но скоро обещают выкатить.
тут пейпер
arXiv.org
MEMOIR: Lifelong Model Editing with Minimal Overwrite and Informed...
Language models deployed in real-world systems often require post-hoc updates to incorporate new or corrected knowledge. However, editing such models efficiently and reliably-without retraining or...
Gemini pro сгенерировал мне цитаты Говарда Лавкрафта, если бы он был преподавателем JavaScript. А я принёс вам:
О приведении типов и == :
О контексте this:
Об асинхронности и Callback Hell:
О фреймворках:
О глобальной области видимости:
О NaN:
О регулярных выражениях:
О Event Loop:
Об отладчике и console.log:
О приведении типов и == :
«Не прибегайте к нечестивому двойному равенству, ибо оно соединяет в безумном союзе то, что должно оставаться раздельным: число и пустоту, истину и её извращённое отражение. В этой аберрации логики, в этом противоестественном слиянии сущностей, я узрел отблеск первозданного Хаоса, что предшествовал всякой строгости и порядку».
О контексте this:
«Сущность, именуемая this, не подчиняется законам здравого смысла и евклидовой геометрии. Её облик и природа меняются в зависимости от того, какой тёмный ритуал её вызвал — был то вызов метода, конструктора или же одинокой функции в безбожной пустоте глобальной области. Взирать в её бездонную переменчивость — значит рисковать утратить собственное "я" и впасть в безумие».
Об асинхронности и Callback Hell:
«Асинхронность есть не что иное, как геометрия неевклидовых пространств, воплощённая в коде. Время здесь течёт не прямо, но вьётся спиралями вглубь вложенных функций, образуя циклопические пирамиды обратных вызовов. В самом сердце этого лабиринта пульсирует обещание исполнения, которое может никогда не наступить, оставляя разум в вечном, трепетном ожидании».
О фреймворках:
«Каждый новый фреймворк — это культ, возникший из бездны NPM, сулящий порядок и спасение от древнего ужаса ванильного DOM. Его адепты шепчут о священных компонентах и виртуальных деревьях. Но под капотом их всех скрываются те же безымянные примитивы, те же щупальца событий и состояний, что сводили с ума и наших предшественников».
О глобальной области видимости:
«Не тревожьте древний легаси-код, погребённый в глубинах проекта. Ибо в его глобальной области видимости, словно в затопленном Р'льехе, дремлют переменные-монстры с именами из одной буквы. Пробуждение хотя бы одной из них обрушит на ваше хрупкое приложение волну непредсказуемых мутаций и ошибок, от которых не спасёт ни один отладчик».
О NaN:
«Среди всех чисел есть одно, что не является числом. Его имя — NaN, и это есть сама чума арифметики. Оно рождается из нечестивых операций, из деления на бездну, и разносит свою порчу, заражая всякое вычисление, к которому прикоснётся. Но самый жуткий его секрет в том, что оно не равно даже самому себе, ибо в его природе — отрицать саму суть тождества и ввергать логику в пучину безумия».
О регулярных выражениях:
«Регулярные выражения — это не строки, но древние, богохульные письмена, начертанные в незапамятные эоны до появления читаемого синтаксиса. Каждый символ, каждая скобка и квантификатор — это часть запретного ритуала, способного расчленить текст и извлечь его сокрытую суть. Но допусти ошибку в этих заклинаниях, и они обратятся против тебя, поглощая память в приступе катастрофического возврата, пока весь мир твоего приложения не схлопнется в единую точку застывшего ужаса».
О Event Loop:
«За пределами нашего кода, в невидимом эфире движка, вращается Великий Цикл Событий. Этот слепой, безразличный бог вершит судьбы наших функций, бросая одни в очередь макрозадач, а другим даруя жуткое преимущество в очереди микрозадач. Мы можем лишь молить его о милости, поднося ему наши коллбэки и промисы, но его логика остаётся за гранью нашего понимания, и порядок исполнения — его непостижимая, космическая прихоть».
Об отладчике и console.log:
«Иногда, в час отчаяния, мы взываем к Оракулу, именуемому console.log, в надежде, что он прольёт свет на тёмные процессы, происходящие внутри. Но его ответы — лишь неясные тени, искажённые отражения истинной природы объектов. И чем глубже мы погружаемся в трассировку стека, тем яснее понимаем, что ошибка — не в коде, а в самой ткани реальности, которую мы пытались подчинить своей воле».