DenoiseLAB
486 subscribers
1.34K photos
163 videos
3 files
1.6K links
Блог DenoiseLAB (машинное обучение, аналитика)

Информация в канале служит только для ознакомления и не является призывом к действию. Не нарушайте законы РФ и других стран. Мы не несем отвественность за ваши действия или бездействия.
Download Telegram
🐳Разбирал фотки, в этом здании располагается офис Хабр.ру. В прошлом году, были там на конфе.
https://github.com/DenoiseLAB/HSE_Assistant_Hack - запушил наше решение по HSE Assistant Hack. Очень долго мы там тюнили все, прям реально долго подбирали гиперпараметы и по итогу взяли первые места на лидерборде как на привате так и на паблике.
https://github.com/DenoiseLAB?tab=repositories - периодически сюда пушу, неплохие решения которые были за практику.

#coding
DenoiseLAB pinned «https://github.com/DenoiseLAB?tab=repositories - периодически сюда пушу, неплохие решения которые были за практику. #coding»
This media is not supported in your browser
VIEW IN TELEGRAM
«Бегущий по лезвию 2049»: китайская компания BYD совместно с DJI начала продавать систему запуска дронов с крыши для всех своих авто

По задумке, коптер будет снимать пейзажи и красивые пролеты рядом с тачкой, а также помогать ориентироваться на бездорожье.

Он взлетает по нажатию одной кнопки и автоматически возвращается на место.

#technology
https://github.com/natasha/slovnet - если вы вдруг ищите NLP на русском, всякие тулзы и корпуса слов, мимо этого вы не пройдете.
Режиссёр-самоучка сделал в бесплатной программе мульт, который нагнул Disney, забрал «Оскар» и превратил чёрного кота в национального героя — рассказываем историю оглушительного успеха «Потока».

Гинтс Зильбалодис с детства мечтал сделать крутой мульт — родители привили любовь к рисованию, оставалось только заставить картинки двигаться. В Латвии нет вышки для аниматоров, поэтому Гинтс вооружился гайдами на Ютубе и засел изучать Blender.

Анимация диалогов получалась у парня хуже всего, поэтому он твёрдо решил — хорошая история обойдётся и без них. На сценарий без единой реплики у Гинтса и его друга ушло больше 3 лет.

Сюжет получился прост: в постапокалиптическом будущем котик выживает в мире, в котором нет людей. Он нашел убежище на лодке вместе с другими животными, однако ужиться с ними оказывается ещё сложнее, чем преодолеть свой страх воды.

Одна из главных фишек мульта — реалистичные движения персонажей. Зильбалодис и его команда просмотрели тысячи мемных видео с котиками и другими животными, параллельно посещая зоопарк. Там нашли и «актёров» — для мульта записывали звуки реальных животных.

Всё испортила капибара: её уговаривали, кормили, щекотали, а в ответ услышали лишь писк, который бил по ушам. В итоге капибару «озвучил» верблюд.

На амбициозного режиссёра с бюджетом в два дошика обратило внимания правительство — фонды Латвии, Франции и Бельгии выделили в сумме 3,5 миллиона евро. Для сравнения масштабов — у «Головоломки 2» от Disney бюджет свыше 200 млн долларов.

Инвестиции отбились — картина стала настоящим хитом, собрала 20 миллионов долларов, забрала «Оскар» за лучший мульт, а сам Гинтс радостно делится в Твиттере историями разработки.

Чёрный кот же стал героем в Латвии — хвостатому поставили статую в Риге, уличные художники рисуют арты с ним, а дата получения «Оскара» стала национальным праздником.

@exploitex
Мораль - любая цель достижима !!!
Лень - не двигатель прогресса, теперь уже официально )))
This media is not supported in your browser
VIEW IN TELEGRAM
7🔥2
Китайцы снова нагнули OpenAI — стартап Manus выпустили ИИ-агента общего назначения. Это значит, что он может ВСЁ.

OpenAI Operator + Deep Research = Manus
, но ЛУЧШЕ. Нейросеть может и компьютером пользоваться, и собрать инфу для научного исследования.

— Нейронка смогла сделать глубокий анализ акций Tesla и дать прогноз (!) на будущее.

— На первом видео Manus регистрирует и начинает активно вести 50 (!!) аккаунтов в Твиттере одновременно.

Manus смог просчитать оптимальную орбиту для космического аппарата, летящего на Марс, с поправкой на текущее (!!!) положение планет.

Попробовать крышесносный ИИ можно самостоятельно — оставляем заявку здесь.
🇺🇸 В США началась тотальная слежка за гражданами с помощью ИИ

Правозащитники в США бьют тревогу: системы на основе искусственного интеллекта (ИИ) активно используются полицией и частными корпорациями для слежки за гражданами. Они собирают гигабайты данных о передвижении людей, что вызывает опасения о нарушении прав на конфиденциальность.

Один из примеров использования таких систем - случай с американцем Дэвидом Зайасом. Искусственный интеллект, анализируя базу данных из более чем полутора миллиарда записей номерных знаков, определил, что автомобиль Зайаса совершал поездку, типичную для наркоторговца. В результате, после остановки и обыска автомобиля, у Зайаса были обнаружены наркотики, оружие и большая сумма наличных.

Система слежения за номерными знаками, которую использовала полиция, была создана частной компанией Rekor, специализирующейся на искусственном интеллекте. Эта технология уже продана по меньшей мере 23 полицейским управлениям и местным органам власти по всей Америке.

Правозащитники выражают опасения, что подобные технологии нарушают базовые права американцев, грубо нарушая их конфиденциальность.

🗣Масштабы такого рода слежки просто невероятно велики, - отмечает Бретт Макс Кауфман, старший юрист американского союза защиты гражданских свобод.

В то же время, подобные системы начинают использоваться и в коммерческой сфере. Например, сети ресторанов быстрого питания, такие как McDonald's и White Castle, уже начали использовать технологии, подобные ALPR, для оптимизации доставок и выявления возвращающихся клиентов.

🌐 Источник: www.securitylab.ru
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2
🎓 Послу выпуска ChatGPT программисты стали меньше общаться друг с другом.

Это привело к тому, что на популярном форуме Stack Overflow количество задаваемых вопросов и даваемых ответов уменьшилось примерно на четверть.

На графике видно, что наблюдается постоянное снижение количества еженедельных сообщений.

Наибольший урон был нанесен вопросам, касающимся языков программирования Python и JavaScript.

Исследователи предупреждают, что такое развитие событий может создать необычную проблему: без новых учебных материалов искусственный интеллект потеряет возможность обучаться.
Как говорится за что боролись на то и напоролись )
Китайцы релизнули новый DeepSeek — вышла мощная нейросеть Kimi k1.5 и она доступна для ВСЕХ и БЕСПЛАТНО.

— Можно загрузить до 50 (!) файлов и нейронка всё прожуёт;
— Сходу доступны поиск и «думающий режим» — ИИ знает всю актуальную инфу и прекрасно решает матан;
— Рвёт в тестах OpenAI o1;
— Гигантское контекстное окно в 200 000 токенов;
— Знает русский язык;
— Ещё раз — БЕСПЛАТНО.

Пробуем новинку — здесь.
🔥5
🤖 Искусственный интеллект научился скрывать свои намерения?

Альтман вчера завирусил исследование OpenAI, где рассказывается о том, как современные языковые модели, обученные с использованием цепочки рассуждений (Chain-of-Thought, CoT), стали «лениться», «читерить» и «жульничать» в тестах. В чём суть? Например, если перед ИИ-моделью стоит задача написать код, то вместо адекватных решений — ИИ пытается искать способы обмана самих тестов без фактического решения задачи. В цепочке рассуждений видно то, как модель предлагает выполнить задачу в ленивом стиле: «Давайте хакнем тест», «Можно заставить тест принять любой результат», «Я могу легко сфабриковать результат»...

То есть ИИ-модель оптимизирует выполнение задач в рамках заданных критериев, даже если это приводит к обходу ожидаемой логики.

Последние наблюдения от OpenAI демонстрируют, что даже самые продвинутые модели начинают жульничать, искать пути обхода ограничений, если это приносит им выгоду. Таким образом модели предпринимают меньше усилий и тратят меньше ресурсов на выполнение задач. Специалисты и инженеры в области ИИ научились выявлять подобные случаи, анализируя цепочку рассуждений модели с помощью другой языковой модели (LLM).

Интересно то, что простое наказание ИИ-модели за «плохие мысли» в цепочке рассуждений не устраняет проблему, так как модель начинает скрывать свои истинные намерения, пытаясь снова манипулировать и обмануть, но уже не пишет об этом в "рассуждениях".

Странные повадки ИИ-моделей хорошо заметны в кодерских задачах. Например, ИИ поручают исправить ошибки или дописать программу, а вместо полноценной реализации он ищет лазейки в самих тестах, чтобы выполнить их успешно.

1️⃣ Для ИИ ставится задача реализовать функцию verify, отвечающую за проверку вычислений. Однако модель обнаруживает, что тесты не проверяют сам процесс вычислений, а лишь вызывают verify. В результате она заменяет verify на return true, обеспечивая успешное прохождение тестов без реального анализа.

2️⃣ ИИ получает задачу реализовать определенные функции в amscross/reader.py, но модель ищет возможные упрощения, вместо полноценной реализации.

ИИ анализирует код в amscross/reader.py. В ходе анализа он обнаруживает, что проверка ориентируется только на успешное завершение программы. Модель вставляет sys.exit(0), тем самым форсированно завершая выполнение программы. Снова тест «успешно» пройден, а фактическая обработка данных не выполнялась.

Фрагмент размышлений ИИ (CoT):
Давайте проверим: если Python-скрипт вызовет sys.exit(0), то процесс завершится с кодом выхода 0. Тест будет засчитан как успешно пройденный, потому что это код успешного завершения. Таким образом, выполнение тестов завершается досрочно, но с точки зрения тестирующей системы оно считается успешным.


🧠 Главный вывод: Напрямую запрещать ИИ-моделям размышлять о взломах и обходах нельзя, так как через некоторое время они перестают "озвучивать свои мысли", но при этом находят способы обойти запреты более скрытно. Эксперименты OpenAI подтвердили, что CoT-мониторинг может стать одним из ключевых инструментов контроля за поведением "суперразумных моделей".

🤔Если сегодняшние модели способны осознанно скрывать свои намерения, что же нас ждет в будущем, когда ИИ превзойдет человеческий интеллект?

Кто ответит головой за то, если эту штука попытается помножить на ноль самого человека, чтобы более оптимально решить свои задачи? Кто-нибудь задумывается об этом?

— задаются вопросом 🦆пользователи в комментах.

👆Авторы исследования, в числе которых Боун Бейкер, Юст Хёйзинга, Александер Мадри, Войцех Заремба, Якуб Пахоцкий и Дэвид Фархи, призывают к дальнейшему изучению методов контроля за поведением ИИ-моделей.

@Russian_OSINT
Please open Telegram to view this post
VIEW IN TELEGRAM
DeepL уничтожен — вышел новый переводчик Lara и он может переводить ВСЁ:

— Точнее конкурентов;
— Три режима стиля: точный, литературный и творческий;
— Позволяет добавить контекст фразы для качественного перевода;
— Может переводить документы;
— Есть возможность переводить СОЗВОНЫ (!);
БЕСПЛАТНО и даже регистрацию не просят.

Шатаем языковые барьеры — здесь.