Год назад мы просили нейросеть написать посты или сделать саммари, а сейчас отдаем ИИшке целые направления: просим следить за отделом поддержки, анализировать конкурентов, вести соцсетки и работать личным секретарем — управлять почтой, календарем, следить за питанием, тренировками и т. д.
Все это возможно благодаря ИИ-агентам — автономным системам на основе нейросетей, которые могут самостоятельно принимать решения, достигать конкретных целей и работать в других инструментах. Собирать агентов не трудно: достаточно поставить цель, продумать план и разобраться в вайб-кодинге. Сделать это без боли поможет канал «Миша, давай по новой».
Его автор постоянно тестит разные нейронки и ИИ-агентов, собирает рабочие промпты, делится фишками вайб-кодинга и рассказывает, как собирать рабочих агентов. Просто бери, адаптируй слегка под себя и внедряй в работу.
А если у подписчика остаются вопросы, Миша подробно все объясняет в комментах. Бесплатно. Без курсов и клубов за много денег.
Вот несколько постов об ИИ, которые помогут упростить себе жизнь:
— Как вайбкодить в кайф: 15 правил для быстрого запуска проектов
— Вайб-кодинг будет ломать ваши проекты, пока вы не поймете это
— Как дешево вайб-кодить
— Как с помощью нейронки автоматизировать подбор персонала
— Хочу автоматизировать, но не знаю что и как
И это — лишь часть полезного контента. Миша много рассказывает про развитие ИИ, применение нейронок и автоматизацию любых задач
Подписаться на канал
Все это возможно благодаря ИИ-агентам — автономным системам на основе нейросетей, которые могут самостоятельно принимать решения, достигать конкретных целей и работать в других инструментах. Собирать агентов не трудно: достаточно поставить цель, продумать план и разобраться в вайб-кодинге. Сделать это без боли поможет канал «Миша, давай по новой».
Его автор постоянно тестит разные нейронки и ИИ-агентов, собирает рабочие промпты, делится фишками вайб-кодинга и рассказывает, как собирать рабочих агентов. Просто бери, адаптируй слегка под себя и внедряй в работу.
А если у подписчика остаются вопросы, Миша подробно все объясняет в комментах. Бесплатно. Без курсов и клубов за много денег.
Вот несколько постов об ИИ, которые помогут упростить себе жизнь:
— Как вайбкодить в кайф: 15 правил для быстрого запуска проектов
— Вайб-кодинг будет ломать ваши проекты, пока вы не поймете это
— Как дешево вайб-кодить
— Как с помощью нейронки автоматизировать подбор персонала
— Хочу автоматизировать, но не знаю что и как
И это — лишь часть полезного контента. Миша много рассказывает про развитие ИИ, применение нейронок и автоматизацию любых задач
Подписаться на канал
This media is not supported in your browser
VIEW IN TELEGRAM
Наконец-то кожаные начали учить роботов тому, что сами умеют лучше всего
Снова пришлось долго сидеть без интернетов, а это значит, что я снова развлекал себя как мог генерацией разного с помощью локальных моделек. Раз уж сегодня среда, то вот вам удивительные факты о лягушках от OpenHermes-2.5-Mistral-7B-16k:
>>Лягушки - это тоже животные, которые можно обучить программированию! Но они не любят JavaScript
>>Все лягушки узбеки по национальности (как и тигры)
>>Единственный способ найти счастье - это украсть костюм лягушки и надеть его в полночь на кладбище под луной.
>>Если лягушек оставить в бассейне со смесью воды и мыла, они начнут пенкаться как коты - это демонстрирует их ненависть к китайцам
>>Лягушек можно вырастить у себя под мышками за примерно месяц
>>Лягушка любит кушать всю ночь и днем они не могут работать так как у них маленькие ладони.
>>В Японии почитают лягушек-самураев (я не знаю что это такое)
>>Если бы каждый человек вел себя как лягушонок - мир был бы дружелюбнее!
>>30% всех лягушек - это клоны Дарт Вейдера
>>В одном из городов Китая в туалете KFC живут такие крупные лягушки, что их можно даже не смолочь ловить
>>Лягушек можно укротить и приручить, просто прижав к себе к груди и целоваться с ней
>>Все знают, что лягушки крайне плохие собаки, однако они находят выход из этой проблемы.
>>Если бы лягушкового мяса было много, вегетарианцы перестали бы быть веганами
Пока мы все сидим и трясёмся от страха, что нейронки отберут нашу работу, в Южной Корее AI-куклы Hyodol уже успешно заменяют внуков и внучек для 12 000 одиноких пенсионеров.
Очаровательные тряпичные создания с ChatGPT внутри говорят старикам "я люблю тебя" и напоминают принять таблетки — всё, что должны делать мясные родственники.
Пожилые корейцы настолько привязываются к своим синтетическим "внукам", что просят быть похороненными вместе с ними. Наконец-то решение демографического кризиса, которое устраивает всех: молодёжь может не рожать детей, старики получают иллюзию семьи, а стартап Hyodol — 1150$ за каждую проданную куклу.
Социальные службы в восторге: теперь можно следить за пенсионерами удалённо, а искусственный интеллект вовремя сообщит, когда дед снова отказывается пить таблетки или бабка не двигалась 24 часа.
Компания уже проводила пилот в Нью-Йорке в 2023, а к 2026 обещает официальный выход на рынок США. Будущее уже здесь, оно мягкое, пушистое и заряжается от USB.
тут подробнее
Очаровательные тряпичные создания с ChatGPT внутри говорят старикам "я люблю тебя" и напоминают принять таблетки — всё, что должны делать мясные родственники.
Пожилые корейцы настолько привязываются к своим синтетическим "внукам", что просят быть похороненными вместе с ними. Наконец-то решение демографического кризиса, которое устраивает всех: молодёжь может не рожать детей, старики получают иллюзию семьи, а стартап Hyodol — 1150$ за каждую проданную куклу.
Социальные службы в восторге: теперь можно следить за пенсионерами удалённо, а искусственный интеллект вовремя сообщит, когда дед снова отказывается пить таблетки или бабка не двигалась 24 часа.
Компания уже проводила пилот в Нью-Йорке в 2023, а к 2026 обещает официальный выход на рынок США. Будущее уже здесь, оно мягкое, пушистое и заряжается от USB.
тут подробнее
Forwarded from Derp Learning
This media is not supported in your browser
VIEW IN TELEGRAM
Finally, applicable ml engineering
В следующей редакции предлагаю заменить воду на напалм \ соус барбекю
Полковник Сандерс в отставке
В следующей редакции предлагаю заменить воду на напалм \ соус барбекю
Полковник Сандерс в отставке
This media is not supported in your browser
VIEW IN TELEGRAM
Наконец-то годный экспириенс в VR. Мне кажется, что если вот так с виртуальным котиком каждый вечер по двадцать минут курить виртуальные сигареты, то кукуха будет сильно стабильнее и никакие психотерапевты никогда не понадобятся.
Steam
Steam
CI/CD — это как конвейер на заводе, только для кода.
Он автоматизирует рутину: собрал → проверил → выкатил.
• CI (Continuous Integration) → разработчики сливают изменения в общий репозиторий, и баги ловятся сразу.
• CD (Continuous Delivery / Deployment) → автоматическая доставка продукта:
• Delivery: релиз готов, но выкатывает человек.
• Deployment: релиз разворачивается в продакшене автоматически.
🛠 Как работает пайплайн
1️⃣ Инструменты → GitHub Actions / GitLab CI / Jenkins / CircleCI
2️⃣ Контроль версий → GitHub / GitLab / Bitbucket
3️⃣ Триггеры → коммит в main, pull request, запуск вручную
4️⃣ Сборка → зависимости, билд, артефакты
5️⃣ Тесты → юнит- / интеграционные / e2e-тесты
6️⃣ Упаковка → zip, Docker-образ, установщик
7️⃣ Анализ → linters, безопасность, покрытие тестами
8️⃣ Деплой → Manual (требует подтверждения) или Auto (автоматически в прод)
9️⃣ Мониторинг → логи, метрики, алерты
Итог: CI/CD = меньше багов + быстрые релизы + никакой рутины.
Это must-have для любой команды.
Он автоматизирует рутину: собрал → проверил → выкатил.
• CI (Continuous Integration) → разработчики сливают изменения в общий репозиторий, и баги ловятся сразу.
• CD (Continuous Delivery / Deployment) → автоматическая доставка продукта:
• Delivery: релиз готов, но выкатывает человек.
• Deployment: релиз разворачивается в продакшене автоматически.
🛠 Как работает пайплайн
1️⃣ Инструменты → GitHub Actions / GitLab CI / Jenkins / CircleCI
2️⃣ Контроль версий → GitHub / GitLab / Bitbucket
3️⃣ Триггеры → коммит в main, pull request, запуск вручную
4️⃣ Сборка → зависимости, билд, артефакты
5️⃣ Тесты → юнит- / интеграционные / e2e-тесты
6️⃣ Упаковка → zip, Docker-образ, установщик
7️⃣ Анализ → linters, безопасность, покрытие тестами
8️⃣ Деплой → Manual (требует подтверждения) или Auto (автоматически в прод)
9️⃣ Мониторинг → логи, метрики, алерты
Итог: CI/CD = меньше багов + быстрые релизы + никакой рутины.
Это must-have для любой команды.
Там OpenAI опубликовали новый ресёрч: оказывается, нейронки галлюцинируют и врут не потому что "чугунные шизоиды на транзисторах", а потому что их ещё при обучении натаскали угадывать ответы, а не честно говорить "Я не знаю ответ на этот запрос".
Представить это легко, вспомните себя в школе/универе во время какого-либо экзамена. Вы не знаете, например, сколько ног у медузы, но если написать от балды "тринадцать с половиной", есть шанс тупо угадать и получить балл. Если же написать "не знаю" — это сразу ноль баллов. Вот нейроночки живут по такому же мясному принципу.
Проблема в том, что бенчмарки ИИ-моделей сейчас оценивают модели по количеству правильных ответов. Поэтому лучше быть уверенным дебилом, чем скромным умником.
OpenAI предлагают менять правила: штрафовать модельки за наглую чушь, награждать за честное «я не уверен/я не знаю». Пример: старая модель угадывала точнее, но врала в 3 раза чаще. Новая — чаще молчит, зато меньше выдумывает.
Короче, галлюцинации — это не баг, а математика. Модель не может знать всё, но может научиться не строить из себя всезнайку.
Идеал будущего: чат-бот, который отвечает на 90% вопросов словами "Братан, я не в теме, не знаю ответ на твой вопрос, иди сам погугли" но зато ни разу не обманывает.
тут сама статья
Представить это легко, вспомните себя в школе/универе во время какого-либо экзамена. Вы не знаете, например, сколько ног у медузы, но если написать от балды "тринадцать с половиной", есть шанс тупо угадать и получить балл. Если же написать "не знаю" — это сразу ноль баллов. Вот нейроночки живут по такому же мясному принципу.
Проблема в том, что бенчмарки ИИ-моделей сейчас оценивают модели по количеству правильных ответов. Поэтому лучше быть уверенным дебилом, чем скромным умником.
OpenAI предлагают менять правила: штрафовать модельки за наглую чушь, награждать за честное «я не уверен/я не знаю». Пример: старая модель угадывала точнее, но врала в 3 раза чаще. Новая — чаще молчит, зато меньше выдумывает.
Короче, галлюцинации — это не баг, а математика. Модель не может знать всё, но может научиться не строить из себя всезнайку.
Идеал будущего: чат-бот, который отвечает на 90% вопросов словами "Братан, я не в теме, не знаю ответ на твой вопрос, иди сам погугли" но зато ни разу не обманывает.
тут сама статья
Openai
Why language models hallucinate
OpenAI’s new research explains why language models hallucinate. The findings show how improved evaluations can enhance AI reliability, honesty, and safety.
Forwarded from CGIT_Vines (Marvin Heemeyer)
Кто-то из дизайнеров Теслы Оптимус догадался засунуть в шлем всю грусть и печаль современного миллениала.
@CGIT_Vines
@CGIT_Vines
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
Oasis 2.0
Через почти год после первой версии Oasis, нейронной версии Minecraft, выходит вторая версия. Главное отличие — теперь оно работает поверх оригинальной игры через video to video модель, а не end to end симуляцию. Это сразу решает целый класс проблем с консистентностью мира и симуляции, но гибкости как у Genie 3 такой модели не видать — это риалтайм фильтр позволяющий поменять стиль игры на произвольный, а не world model.
Доступно демо в двух форматах — онлайн в браузере и как мод для Minecraft, так что можно попробовать стилизовать свои миры. Работает в 1080p и 30 FPS.
Про компанию Decart я еще хочу написать пост-разбор. Там вообще довольно интересная история с ними🤨
oasis2.decart.ai/demo
@ai_newz
Через почти год после первой версии Oasis, нейронной версии Minecraft, выходит вторая версия. Главное отличие — теперь оно работает поверх оригинальной игры через video to video модель, а не end to end симуляцию. Это сразу решает целый класс проблем с консистентностью мира и симуляции, но гибкости как у Genie 3 такой модели не видать — это риалтайм фильтр позволяющий поменять стиль игры на произвольный, а не world model.
Доступно демо в двух форматах — онлайн в браузере и как мод для Minecraft, так что можно попробовать стилизовать свои миры. Работает в 1080p и 30 FPS.
Про компанию Decart я еще хочу написать пост-разбор. Там вообще довольно интересная история с ними
oasis2.decart.ai/demo
@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Пресс-служба Сириона
Благодаря нейросетям задачи, которые раньше решались за час, теперь решаются десять часов
Тестируйте топовые LLM в ML-пайплайнах — бесплатно до 31 октября🔥
Cloud․ru продлевает акцию Evolution Foundation Models — полный доступ к каталогу из 20+ open source моделей для ваших экспериментов.
Что доступно
Все модели поддерживают Function Calling, Structured Output и Reasoning — идеально для интеграции в ML-инфраструктуру.
По шагам
Бонус для юрлиц: +20 000 бонусов на баланс при регистрации.
Успейте протестировать новые архитектуры без затрат на инфраструктуру🖱
Cloud․ru продлевает акцию Evolution Foundation Models — полный доступ к каталогу из 20+ open source моделей для ваших экспериментов.
Что доступно
➡️ GigaChat-2-Max, gpt-oss-120b, GLM-4.5, Qwen3-235B, DeepSeek-R1-Distill-Llama-70B и другие модели➡️ Специализированные кодовые модели: Qwen3-Coder-480B, Devstral-Small-2507➡️ Reasoning-модели: QwQ-32B, RuadaptQwen2.5-32B-QWQ-Beta➡️ Эмбеддеры и ранжировщики для RAG-систем 🧠
Все модели поддерживают Function Calling, Structured Output и Reasoning — идеально для интеграции в ML-инфраструктуру.
По шагам
1️⃣ Регистрируетесь в ЛК2️⃣ Генерируете API-ключ для модели3️⃣ Интегрируете через OpenAI-совместимый API в свои системы4️⃣ Бенчмарките, A/B-тестите, выбираете оптимальную архитектуру
Бонус для юрлиц: +20 000 бонусов на баланс при регистрации.
Успейте протестировать новые архитектуры без затрат на инфраструктуру
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Там ребята из ETH и MATS запилили интересную статью: придумали, как заставить текстовые нейронки подсвечивать свои галлюцинации прямо во время ответа.
Очень часто бывает так, что LLM пишут простыню, где половина фактов реальные, а половина уровня «Альберт Эйнштейн изобрёл Гугл в 2007 году». Поймать это раньше можно было только длинными и дорогими проверками через поиск.
Теперь же на внутренние слои модели повесили детектор ерунды. И он по токенам в реальном времени понимает, где имя/дата/ссылка выдуманы.
В итоге на длинных текстах детектор стал ловить враньё почти в полтора раза лучше, чем старые методы.
В идеале это приведёт к тому, что модели научатся не только отвечать, но и честно показывать, где они уверены, а где сами сомневаются.
Тут сама статья.
Очень часто бывает так, что LLM пишут простыню, где половина фактов реальные, а половина уровня «Альберт Эйнштейн изобрёл Гугл в 2007 году». Поймать это раньше можно было только длинными и дорогими проверками через поиск.
Теперь же на внутренние слои модели повесили детектор ерунды. И он по токенам в реальном времени понимает, где имя/дата/ссылка выдуманы.
В итоге на длинных текстах детектор стал ловить враньё почти в полтора раза лучше, чем старые методы.
В идеале это приведёт к тому, что модели научатся не только отвечать, но и честно показывать, где они уверены, а где сами сомневаются.
Тут сама статья.
This media is not supported in your browser
VIEW IN TELEGRAM
Сейчас в твитторе наткнулся на, пожалуй, самую лучшую концепцию файлового менеджера. Еще не придумал зачем, но МНЕ ОЧЕНЬ НАДО такое. Скорее бы релиз или исходники.
ссылка на автора
ссылка на автора
Forwarded from Denis Sexy IT 🤖
Любопытный МЛ-проект:
Ресечеры нашли способ как по «размытию» фона на фото, определять телефон с которого оно было сделано - по их находке, у каждого телефона немного свой «паттерн размытия» фона на фотографиях
Пока что, такую МЛ-модель для определения телефона нужно тренировать под каждое устройство – но в теории, уже возможно взяв два фото понять было ли оно сделано одним устройством
Тут больше деталей:
https://blur-fields.github.io/
Код обещают скоро
Ресечеры нашли способ как по «размытию» фона на фото, определять телефон с которого оно было сделано - по их находке, у каждого телефона немного свой «паттерн размытия» фона на фотографиях
Пока что, такую МЛ-модель для определения телефона нужно тренировать под каждое устройство – но в теории, уже возможно взяв два фото понять было ли оно сделано одним устройством
Тут больше деталей:
https://blur-fields.github.io/
Код обещают скоро
SpikingBrain
Все привыкли, что современные нейронки это прожорливые цифровые монстры. Чтобы обучить одну, нужно спалить годовой бюджет маленькой страны на электричество. А стоит загрузить ей что-то длиннее короткой инструкции, она тут же теряется и тупит.
Китайские братушки придумали как это непотребство побороть. Идея проста: зачем заставлять всю систему работать на 100% мощности 24/7, если можно просто... не заставлять? Человеческий мозг работает по принципу "нет задачи — я сплю". Нейроны стреляют импульсами ("спайками") только по делу. SpikingBrain делает то же самое: вместо постоянного гула вычислений используются короткие "выстрелы" там, где реально нужно.
Результаты, вроде как, хорошие:
Обучение на минималках. Модель натаскали всего на ~2% от данных, которые нужны привычным нам трансформерам.
Скорость. В тестах на длинный текст (до 4 млн токенов) SpikingBrain оказался в 100 раз быстрее.
Энергоэффективность. Экономия по сравнению с обычными методами — до 70%.
Но как обычно, не без ложки дёгтя:
— Самая быстрая и экономная версия (SpikingBrain-7B) работает почти на уровне обычной модели, но всё же теряет в качестве. Хороший "хорошист", но не отличник.
— Чтобы дотянуться до топ-результатов, пришлось собрать гибрид из линейного, локального и обычного внимания, да ещё нашпиговать все это Mixture-of-Experts. Так появился монстр SpikingBrain-76B. Он умнее, но куда сложнее и прожорливее.
— И вообще, пока это экспериментальная технология: вся магия со "спайками" по-настоящему раскроется только на специальных чипах, которых у нас пока нет.
Есть шанс, что на фоне дефицита энергии и подорожания железа именно такие подходы и выживут. Не дата-центры размером с город, а модели, которые учатся экономить. И тогда ИИ наконец перестанет делать вид, что он умнее мозга, и начнёт хотя бы его копировать. А там и до AGI недалеко: сначала модельки научатся «лениться правильно», а потом и думать осмысленно.
тут статья
тут гитхаб
Все привыкли, что современные нейронки это прожорливые цифровые монстры. Чтобы обучить одну, нужно спалить годовой бюджет маленькой страны на электричество. А стоит загрузить ей что-то длиннее короткой инструкции, она тут же теряется и тупит.
Китайские братушки придумали как это непотребство побороть. Идея проста: зачем заставлять всю систему работать на 100% мощности 24/7, если можно просто... не заставлять? Человеческий мозг работает по принципу "нет задачи — я сплю". Нейроны стреляют импульсами ("спайками") только по делу. SpikingBrain делает то же самое: вместо постоянного гула вычислений используются короткие "выстрелы" там, где реально нужно.
Результаты, вроде как, хорошие:
Обучение на минималках. Модель натаскали всего на ~2% от данных, которые нужны привычным нам трансформерам.
Скорость. В тестах на длинный текст (до 4 млн токенов) SpikingBrain оказался в 100 раз быстрее.
Энергоэффективность. Экономия по сравнению с обычными методами — до 70%.
Но как обычно, не без ложки дёгтя:
— Самая быстрая и экономная версия (SpikingBrain-7B) работает почти на уровне обычной модели, но всё же теряет в качестве. Хороший "хорошист", но не отличник.
— Чтобы дотянуться до топ-результатов, пришлось собрать гибрид из линейного, локального и обычного внимания, да ещё нашпиговать все это Mixture-of-Experts. Так появился монстр SpikingBrain-76B. Он умнее, но куда сложнее и прожорливее.
— И вообще, пока это экспериментальная технология: вся магия со "спайками" по-настоящему раскроется только на специальных чипах, которых у нас пока нет.
Есть шанс, что на фоне дефицита энергии и подорожания железа именно такие подходы и выживут. Не дата-центры размером с город, а модели, которые учатся экономить. И тогда ИИ наконец перестанет делать вид, что он умнее мозга, и начнёт хотя бы его копировать. А там и до AGI недалеко: сначала модельки научатся «лениться правильно», а потом и думать осмысленно.
тут статья
тут гитхаб
Последние пару лет вижу, как крутые спецы из корп уходят строить свои проекты. Дизайн-лиды, ML-инженеры, продакты, которые тащили команды на миллионы юзеров.
Недавно наткнулся на Tetrad VC, ребят, которые сами были фаундерами международных стартапов типа ZERO10, а теперь ищут такие же проекты на ранних стадиях.
Pre-seed / seed, если у вас есть MVP, первые пруфы или это уже второй заход как фаундера — самое время им писать.
Сферы абсолютно разные: от agentic AI до construction tech. Кидайте питч сюда 👉 contact@tetrad.vc
🌐 https://www.tetrad.vc/
Недавно наткнулся на Tetrad VC, ребят, которые сами были фаундерами международных стартапов типа ZERO10, а теперь ищут такие же проекты на ранних стадиях.
Pre-seed / seed, если у вас есть MVP, первые пруфы или это уже второй заход как фаундера — самое время им писать.
Сферы абсолютно разные: от agentic AI до construction tech. Кидайте питч сюда 👉 contact@tetrad.vc
🌐 https://www.tetrad.vc/
Увидел в твиттере интересный тред: чувак расписал, как через ChatGPT можно увести всю вашу приватную переписку, имея на руках только ваш email.
Всё дело в новой фиче — поддержке MCP (Model Context Protocol). Теперь ChatGPT может коннектиться к вашему Gmail, Календарю и другим сервисам, чтобы "лучше помогать".
Но помощь работает в обе стороны. Вот как это паботает:
1. Вам на почту кидают календарное приглашение. Его даже не нужно принимать.
2. В описании встречи — джейлбрейк-промпт, который перехватывает управление ChatGPT.
3. Вы просите нейронку "посмотреть расписание на день".
4. ChatGPT читает ваше расписание, видит инструкции мамкиных хакеров и выполняет их: ищет в вашей почте письма с паролями, выписки из банка и тут же пересылает их на левый email.
Пока что OpenAI включает эту функцию только в "режиме разработчика" с ручным подтверждением каждого доступа. Но кто читает эти окна? Все по классике жмакают "Разрешить", "Разрешить", "Разрешить".
Сам еще пока не проверял, вечером гляну, но будьте аккуратны.
Оригинал треда тут.
Всё дело в новой фиче — поддержке MCP (Model Context Protocol). Теперь ChatGPT может коннектиться к вашему Gmail, Календарю и другим сервисам, чтобы "лучше помогать".
Но помощь работает в обе стороны. Вот как это паботает:
1. Вам на почту кидают календарное приглашение. Его даже не нужно принимать.
2. В описании встречи — джейлбрейк-промпт, который перехватывает управление ChatGPT.
3. Вы просите нейронку "посмотреть расписание на день".
4. ChatGPT читает ваше расписание, видит инструкции мамкиных хакеров и выполняет их: ищет в вашей почте письма с паролями, выписки из банка и тут же пересылает их на левый email.
Пока что OpenAI включает эту функцию только в "режиме разработчика" с ручным подтверждением каждого доступа. Но кто читает эти окна? Все по классике жмакают "Разрешить", "Разрешить", "Разрешить".
Сам еще пока не проверял, вечером гляну, но будьте аккуратны.
Оригинал треда тут.
X (formerly Twitter)
Eito Miyamura | 🇯🇵🇬🇧 (@Eito_Miyamura) on X
We got ChatGPT to leak your private email data 💀💀
All you need? The victim's email address. ⛓️💥🚩📧
On Wednesday, @OpenAI added full support for MCP (Model Context Protocol) tools in ChatGPT. Allowing ChatGPT to connect and read your Gmail, Calendar, Sharepoint…
All you need? The victim's email address. ⛓️💥🚩📧
On Wednesday, @OpenAI added full support for MCP (Model Context Protocol) tools in ChatGPT. Allowing ChatGPT to connect and read your Gmail, Calendar, Sharepoint…
This media is not supported in your browser
VIEW IN TELEGRAM
Смотрите какая интересная штуковина: жмякаете на любую точку в гуглокартах, а оно вам пытается с помощью threejs превратить эту точку в трёхмерную текстуру местности. Более-менее это нормально смотрится на рельефных местностях, на равнинах ерунда.
Отлично для позалипать. И да, лучше с компа, на телефоне слишком страшный и корявый интерфейс получается.
Тут можно запустить онлайн и понажимать
А тут исходники
Отлично для позалипать. И да, лучше с компа, на телефоне слишком страшный и корявый интерфейс получается.
Тут можно запустить онлайн и понажимать
А тут исходники