Media is too big
VIEW IN TELEGRAM
ВНИМАНИЕ!!!!
Роботы танцуют!
Спасибо за внимание.
Роботы танцуют!
Спасибо за внимание.
Наткнулся на arXiv'е на интересную статью, в которой предложили новый способ править факты в больших языковых моделях без долгого и дорогого файнтюна -- MEMOIR. Суть: часто с некоторыми запросами модельки с упорством ста ослов лажают, галлюцинируют и несут бред. Обычно в таких случаях разработчики прибегают к файнтюну, дабы исправить подобное поведение и внести точность. Можно еще юзать RAG, но он тоже часто лажает и имеет свои минусы. В статье предлагают не тащить модель на долгое дообучение и просирать тонны GPU-часов, а впиливать в неё дополнительный слой памяти – своего рода флешку в "теле" нейронки. Изначально этот слой забит нулями, т.е. пуст. Когда нужно внести что-то новое/исправить старое в существующих знаниях, правки вносятся именно туда, а базовые веса остаются нетронутыми. Когда модель отвечает, она сначала решает, стоит ли достать данные из этой памяти, а потом уже выдаёт финальный результат.
Интересно, что каждый раз новая информация укладывается в свой уголок памяти и больше ни на что не влияет. Если запрос похож на уже отредактированный, включается нужный фрагмент, если нет – модель работает в обычном режиме. Это позволяет делать до нескольких тысяч правок подряд и при этом не терять старые правки и не ломать всё остальное поведение.
Для компаний это мега-юзкейс: экономит затраченное время и шекели на дообучение модели, инженеры затрачивают считанные минуты на точечное исправление.
Кода пока нет, но скоро обещают выкатить.
тут пейпер
Интересно, что каждый раз новая информация укладывается в свой уголок памяти и больше ни на что не влияет. Если запрос похож на уже отредактированный, включается нужный фрагмент, если нет – модель работает в обычном режиме. Это позволяет делать до нескольких тысяч правок подряд и при этом не терять старые правки и не ломать всё остальное поведение.
Для компаний это мега-юзкейс: экономит затраченное время и шекели на дообучение модели, инженеры затрачивают считанные минуты на точечное исправление.
Кода пока нет, но скоро обещают выкатить.
тут пейпер
arXiv.org
MEMOIR: Lifelong Model Editing with Minimal Overwrite and Informed...
Language models deployed in real-world systems often require post-hoc updates to incorporate new or corrected knowledge. However, editing such models efficiently and reliably-without retraining or...
Gemini pro сгенерировал мне цитаты Говарда Лавкрафта, если бы он был преподавателем JavaScript. А я принёс вам:
О приведении типов и == :
О контексте this:
Об асинхронности и Callback Hell:
О фреймворках:
О глобальной области видимости:
О NaN:
О регулярных выражениях:
О Event Loop:
Об отладчике и console.log:
О приведении типов и == :
«Не прибегайте к нечестивому двойному равенству, ибо оно соединяет в безумном союзе то, что должно оставаться раздельным: число и пустоту, истину и её извращённое отражение. В этой аберрации логики, в этом противоестественном слиянии сущностей, я узрел отблеск первозданного Хаоса, что предшествовал всякой строгости и порядку».
О контексте this:
«Сущность, именуемая this, не подчиняется законам здравого смысла и евклидовой геометрии. Её облик и природа меняются в зависимости от того, какой тёмный ритуал её вызвал — был то вызов метода, конструктора или же одинокой функции в безбожной пустоте глобальной области. Взирать в её бездонную переменчивость — значит рисковать утратить собственное "я" и впасть в безумие».
Об асинхронности и Callback Hell:
«Асинхронность есть не что иное, как геометрия неевклидовых пространств, воплощённая в коде. Время здесь течёт не прямо, но вьётся спиралями вглубь вложенных функций, образуя циклопические пирамиды обратных вызовов. В самом сердце этого лабиринта пульсирует обещание исполнения, которое может никогда не наступить, оставляя разум в вечном, трепетном ожидании».
О фреймворках:
«Каждый новый фреймворк — это культ, возникший из бездны NPM, сулящий порядок и спасение от древнего ужаса ванильного DOM. Его адепты шепчут о священных компонентах и виртуальных деревьях. Но под капотом их всех скрываются те же безымянные примитивы, те же щупальца событий и состояний, что сводили с ума и наших предшественников».
О глобальной области видимости:
«Не тревожьте древний легаси-код, погребённый в глубинах проекта. Ибо в его глобальной области видимости, словно в затопленном Р'льехе, дремлют переменные-монстры с именами из одной буквы. Пробуждение хотя бы одной из них обрушит на ваше хрупкое приложение волну непредсказуемых мутаций и ошибок, от которых не спасёт ни один отладчик».
О NaN:
«Среди всех чисел есть одно, что не является числом. Его имя — NaN, и это есть сама чума арифметики. Оно рождается из нечестивых операций, из деления на бездну, и разносит свою порчу, заражая всякое вычисление, к которому прикоснётся. Но самый жуткий его секрет в том, что оно не равно даже самому себе, ибо в его природе — отрицать саму суть тождества и ввергать логику в пучину безумия».
О регулярных выражениях:
«Регулярные выражения — это не строки, но древние, богохульные письмена, начертанные в незапамятные эоны до появления читаемого синтаксиса. Каждый символ, каждая скобка и квантификатор — это часть запретного ритуала, способного расчленить текст и извлечь его сокрытую суть. Но допусти ошибку в этих заклинаниях, и они обратятся против тебя, поглощая память в приступе катастрофического возврата, пока весь мир твоего приложения не схлопнется в единую точку застывшего ужаса».
О Event Loop:
«За пределами нашего кода, в невидимом эфире движка, вращается Великий Цикл Событий. Этот слепой, безразличный бог вершит судьбы наших функций, бросая одни в очередь макрозадач, а другим даруя жуткое преимущество в очереди микрозадач. Мы можем лишь молить его о милости, поднося ему наши коллбэки и промисы, но его логика остаётся за гранью нашего понимания, и порядок исполнения — его непостижимая, космическая прихоть».
Об отладчике и console.log:
«Иногда, в час отчаяния, мы взываем к Оракулу, именуемому console.log, в надежде, что он прольёт свет на тёмные процессы, происходящие внутри. Но его ответы — лишь неясные тени, искажённые отражения истинной природы объектов. И чем глубже мы погружаемся в трассировку стека, тем яснее понимаем, что ошибка — не в коде, а в самой ткани реальности, которую мы пытались подчинить своей воле».
Еще в 2020 году с помощью уже древней GPT-2 я пытался продолжать вот эту скотскую кликбейтную рекламу, обрывающуюся на полуслове, которую часто можно увидеть на сайтах, если отключить адблок.
Прогресс не стоит на месте, теперь у нас есть мультимодальные нейронки. Показал GPT o3 настоящие скриншоты такой рекламы и попросил сгенерировать фейковые скриншоты подобного. Без описания текста, без описания картинок, просто скрин и просьба сделать так же. Справляется она на отличненько, надо сказать, от настоящей подобной рекламы почти неотличимо.
Прогресс не стоит на месте, теперь у нас есть мультимодальные нейронки. Показал GPT o3 настоящие скриншоты такой рекламы и попросил сгенерировать фейковые скриншоты подобного. Без описания текста, без описания картинок, просто скрин и просьба сделать так же. Справляется она на отличненько, надо сказать, от настоящей подобной рекламы почти неотличимо.
Forwarded from UX Live 🔥
Раньше я думал - почему Красный октябрь никак не откажется от этой криповой работы 60х?
Но спустя годы понял что ни в коем случае нельзя менять её, каждое поколение должно интегрировать её в мемы по-своему. 20 лет назад первые фотожаберы разработали alienёнку, а сегодня это выходит на уровень арт-объектов.
Автор vikpavlu
Но спустя годы понял что ни в коем случае нельзя менять её, каждое поколение должно интегрировать её в мемы по-своему. 20 лет назад первые фотожаберы разработали alienёнку, а сегодня это выходит на уровень арт-объектов.
Автор vikpavlu
Там OpenAI отхватили контракт с Минобороны США на $200 лямов в год. Говорят, будут пилить передовые ИИ-модели для решения каких-то там "критических задач национальной безопасности". Ну типа чтобы дроны лучше летали, ракеты умнее были, а солдаты меньше страдали.
Кстати, за несколько недель до этого Anthropic тоже заявили, что будут сотрудничать с Palantir и Amazon для поставки своих моделек в оборонные и разведывательные агентства США.
С одной стороны, 200 лямов баксов для OpenAI это как купон на бесплатный бургер Илону Маску, слишком маленькая сумма, чтобы всерьёз обращать внимание. А с другой — это только начало. Дальше будет постепенное внедрение вглубь госмашины с увеличением сумм контрактов.
Что интересно, обычно всякие технологические ништяки разрабатываются для вояк, а уже потом сползают в гражданский сектор (интернет, GPS, дроны, микроволновки, всё это когда-то было про войну). Но с этими нашими ИИ все идет в обратную сторону: сначала мемы, сочинения и котики, а потом обработка разведданных и сопровождение ударных беспилотников.
Кстати, за несколько недель до этого Anthropic тоже заявили, что будут сотрудничать с Palantir и Amazon для поставки своих моделек в оборонные и разведывательные агентства США.
С одной стороны, 200 лямов баксов для OpenAI это как купон на бесплатный бургер Илону Маску, слишком маленькая сумма, чтобы всерьёз обращать внимание. А с другой — это только начало. Дальше будет постепенное внедрение вглубь госмашины с увеличением сумм контрактов.
Что интересно, обычно всякие технологические ништяки разрабатываются для вояк, а уже потом сползают в гражданский сектор (интернет, GPS, дроны, микроволновки, всё это когда-то было про войну). Но с этими нашими ИИ все идет в обратную сторону: сначала мемы, сочинения и котики, а потом обработка разведданных и сопровождение ударных беспилотников.
CNBC
OpenAI wins $200 million U.S. defense contract
Months after announcing a partnership with defense-tech startup Anduril, OpenAI has secured a $200 million contract with the Department of Defense.