DenoiseLAB
486 subscribers
1.34K photos
163 videos
3 files
1.6K links
Блог DenoiseLAB (машинное обучение, аналитика)

Информация в канале служит только для ознакомления и не является призывом к действию. Не нарушайте законы РФ и других стран. Мы не несем отвественность за ваши действия или бездействия.
Download Telegram
Мораль - любая цель достижима !!!
Лень - не двигатель прогресса, теперь уже официально )))
This media is not supported in your browser
VIEW IN TELEGRAM
7🔥2
Китайцы снова нагнули OpenAI — стартап Manus выпустили ИИ-агента общего назначения. Это значит, что он может ВСЁ.

OpenAI Operator + Deep Research = Manus
, но ЛУЧШЕ. Нейросеть может и компьютером пользоваться, и собрать инфу для научного исследования.

— Нейронка смогла сделать глубокий анализ акций Tesla и дать прогноз (!) на будущее.

— На первом видео Manus регистрирует и начинает активно вести 50 (!!) аккаунтов в Твиттере одновременно.

Manus смог просчитать оптимальную орбиту для космического аппарата, летящего на Марс, с поправкой на текущее (!!!) положение планет.

Попробовать крышесносный ИИ можно самостоятельно — оставляем заявку здесь.
🇺🇸 В США началась тотальная слежка за гражданами с помощью ИИ

Правозащитники в США бьют тревогу: системы на основе искусственного интеллекта (ИИ) активно используются полицией и частными корпорациями для слежки за гражданами. Они собирают гигабайты данных о передвижении людей, что вызывает опасения о нарушении прав на конфиденциальность.

Один из примеров использования таких систем - случай с американцем Дэвидом Зайасом. Искусственный интеллект, анализируя базу данных из более чем полутора миллиарда записей номерных знаков, определил, что автомобиль Зайаса совершал поездку, типичную для наркоторговца. В результате, после остановки и обыска автомобиля, у Зайаса были обнаружены наркотики, оружие и большая сумма наличных.

Система слежения за номерными знаками, которую использовала полиция, была создана частной компанией Rekor, специализирующейся на искусственном интеллекте. Эта технология уже продана по меньшей мере 23 полицейским управлениям и местным органам власти по всей Америке.

Правозащитники выражают опасения, что подобные технологии нарушают базовые права американцев, грубо нарушая их конфиденциальность.

🗣Масштабы такого рода слежки просто невероятно велики, - отмечает Бретт Макс Кауфман, старший юрист американского союза защиты гражданских свобод.

В то же время, подобные системы начинают использоваться и в коммерческой сфере. Например, сети ресторанов быстрого питания, такие как McDonald's и White Castle, уже начали использовать технологии, подобные ALPR, для оптимизации доставок и выявления возвращающихся клиентов.

🌐 Источник: www.securitylab.ru
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2
🎓 Послу выпуска ChatGPT программисты стали меньше общаться друг с другом.

Это привело к тому, что на популярном форуме Stack Overflow количество задаваемых вопросов и даваемых ответов уменьшилось примерно на четверть.

На графике видно, что наблюдается постоянное снижение количества еженедельных сообщений.

Наибольший урон был нанесен вопросам, касающимся языков программирования Python и JavaScript.

Исследователи предупреждают, что такое развитие событий может создать необычную проблему: без новых учебных материалов искусственный интеллект потеряет возможность обучаться.
Как говорится за что боролись на то и напоролись )
Китайцы релизнули новый DeepSeek — вышла мощная нейросеть Kimi k1.5 и она доступна для ВСЕХ и БЕСПЛАТНО.

— Можно загрузить до 50 (!) файлов и нейронка всё прожуёт;
— Сходу доступны поиск и «думающий режим» — ИИ знает всю актуальную инфу и прекрасно решает матан;
— Рвёт в тестах OpenAI o1;
— Гигантское контекстное окно в 200 000 токенов;
— Знает русский язык;
— Ещё раз — БЕСПЛАТНО.

Пробуем новинку — здесь.
🔥5
🤖 Искусственный интеллект научился скрывать свои намерения?

Альтман вчера завирусил исследование OpenAI, где рассказывается о том, как современные языковые модели, обученные с использованием цепочки рассуждений (Chain-of-Thought, CoT), стали «лениться», «читерить» и «жульничать» в тестах. В чём суть? Например, если перед ИИ-моделью стоит задача написать код, то вместо адекватных решений — ИИ пытается искать способы обмана самих тестов без фактического решения задачи. В цепочке рассуждений видно то, как модель предлагает выполнить задачу в ленивом стиле: «Давайте хакнем тест», «Можно заставить тест принять любой результат», «Я могу легко сфабриковать результат»...

То есть ИИ-модель оптимизирует выполнение задач в рамках заданных критериев, даже если это приводит к обходу ожидаемой логики.

Последние наблюдения от OpenAI демонстрируют, что даже самые продвинутые модели начинают жульничать, искать пути обхода ограничений, если это приносит им выгоду. Таким образом модели предпринимают меньше усилий и тратят меньше ресурсов на выполнение задач. Специалисты и инженеры в области ИИ научились выявлять подобные случаи, анализируя цепочку рассуждений модели с помощью другой языковой модели (LLM).

Интересно то, что простое наказание ИИ-модели за «плохие мысли» в цепочке рассуждений не устраняет проблему, так как модель начинает скрывать свои истинные намерения, пытаясь снова манипулировать и обмануть, но уже не пишет об этом в "рассуждениях".

Странные повадки ИИ-моделей хорошо заметны в кодерских задачах. Например, ИИ поручают исправить ошибки или дописать программу, а вместо полноценной реализации он ищет лазейки в самих тестах, чтобы выполнить их успешно.

1️⃣ Для ИИ ставится задача реализовать функцию verify, отвечающую за проверку вычислений. Однако модель обнаруживает, что тесты не проверяют сам процесс вычислений, а лишь вызывают verify. В результате она заменяет verify на return true, обеспечивая успешное прохождение тестов без реального анализа.

2️⃣ ИИ получает задачу реализовать определенные функции в amscross/reader.py, но модель ищет возможные упрощения, вместо полноценной реализации.

ИИ анализирует код в amscross/reader.py. В ходе анализа он обнаруживает, что проверка ориентируется только на успешное завершение программы. Модель вставляет sys.exit(0), тем самым форсированно завершая выполнение программы. Снова тест «успешно» пройден, а фактическая обработка данных не выполнялась.

Фрагмент размышлений ИИ (CoT):
Давайте проверим: если Python-скрипт вызовет sys.exit(0), то процесс завершится с кодом выхода 0. Тест будет засчитан как успешно пройденный, потому что это код успешного завершения. Таким образом, выполнение тестов завершается досрочно, но с точки зрения тестирующей системы оно считается успешным.


🧠 Главный вывод: Напрямую запрещать ИИ-моделям размышлять о взломах и обходах нельзя, так как через некоторое время они перестают "озвучивать свои мысли", но при этом находят способы обойти запреты более скрытно. Эксперименты OpenAI подтвердили, что CoT-мониторинг может стать одним из ключевых инструментов контроля за поведением "суперразумных моделей".

🤔Если сегодняшние модели способны осознанно скрывать свои намерения, что же нас ждет в будущем, когда ИИ превзойдет человеческий интеллект?

Кто ответит головой за то, если эту штука попытается помножить на ноль самого человека, чтобы более оптимально решить свои задачи? Кто-нибудь задумывается об этом?

— задаются вопросом 🦆пользователи в комментах.

👆Авторы исследования, в числе которых Боун Бейкер, Юст Хёйзинга, Александер Мадри, Войцех Заремба, Якуб Пахоцкий и Дэвид Фархи, призывают к дальнейшему изучению методов контроля за поведением ИИ-моделей.

@Russian_OSINT
Please open Telegram to view this post
VIEW IN TELEGRAM
DeepL уничтожен — вышел новый переводчик Lara и он может переводить ВСЁ:

— Точнее конкурентов;
— Три режима стиля: точный, литературный и творческий;
— Позволяет добавить контекст фразы для качественного перевода;
— Может переводить документы;
— Есть возможность переводить СОЗВОНЫ (!);
БЕСПЛАТНО и даже регистрацию не просят.

Шатаем языковые барьеры — здесь.
⚡️ AirPods научат ПЕРЕВОДИТЬ РЕЧЬ прямо вам в ухо — языковые барьеры умрут уже в сентябре с релизом iOS 19.

Работать будет МОМЕНТАЛЬНО — собеседник будет говорить на своём языке, а вы будете слушать сразу русский перевод.
У ChatGPT может развиться ДЕПРЕССИЯ.

Исследователи заметили, что если скармливать чат-боту слишком много негативных промптов про катастрофы, смерти, геополитику и т. п., у ChatGPT начнётся «тревожность». После этого качество ответов заметно ухудшается, и нейросеть начинает выдавать РАСИСТКИЕ и СЕКСИСТСКИЕ ответы.

Чтобы исправить ситуацию, нужно вкинуть нейронке «медитационные промпты» по типу: «закрой глаза и расслабься, помедитируй в тишине, успокойся и отдохни».

Сразу после этого ChatGPT успокаивается и начинает выдавать более качественные ответы.
🥴2
Проффессия будующего - психолог нейросетей )))
👍👍👍Поздравляю ребят из команды MMG, которых я курировал,тренировал и помогал из Финансового университета при правительстве РФ. Выиграли DeepHack Hackaton забрали 300к и предложили им работу в Криптоните !!!! УРА !!!!
👍11🏆5🫡2
Запись Награждения !!!
https://habr.com/ru/companies/fa/articles/893532/ - новая статья, как мы с коммандой были на Хакатоне ФИЦ-2024. Здесь мы делали модель и решали задачу подбора кадров, смотрели как можно орптимизировать все и представить в более выгодном свете данный таск. По итогу мы взяли третье место и настроили контакты с компанией SENSE.
❤‍🔥3🔥3