ForkLog AI
11.5K subscribers
2.13K photos
434 videos
12 files
6.04K links
Культовый журнал об искусственном интеллекте, нейронках и машинном обучении.


Наши эксперименты с нейронными сетями: https://www.tiktok.com/@forklogai.

Реклама на ForkLog: https://forklog.com/advertisement/
Download Telegram
🍏 Apple добавит в CarPlay голосовых чат-ботов на базе ChatGPT, Gemini и других ИИ.

Функцию уже тестируют в бета-версии iOS 26.4, пишет MacRumors.

Новости | AI | YouTube
👍51
🔍 Компания OpenAI совместно с Paradigm представила EVMbench — бенчмарк для оценки способности ИИ-агентов выявлять, исправлять и эксплуатировать бреши в смарт-контрактах.

OpenAI протестировала передовые модели во всех трех режимах. В категории Exploit модель GPT-5.3-Codex достигла 72,2%, GPT-5 — 31,9%. При этом показатели обнаружения и исправления уязвимостей оказались скромнее — многие проблемы по-прежнему сложно находить и устранять.

В Detect ИИ-агенты иногда останавливаются после нахождения одной уязвимости вместо проведения полного аудита. В режиме Patch им пока сложно закрывать неочевидные проблемы так, чтобы сохранить полную функциональность контракта.

➡️ Подробнее.

Новости | AI | YouTube
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3👎1
This media is not supported in your browser
VIEW IN TELEGRAM
🎶 Компания Google DeepMind представила ИИ-модель для генерации музыки Lyria 3. Корпорация добавила ее в чат-бота Gemini.

Нейросеть позволяет генерировать аудио длительностью 30 секунд с помощью текстовых промптов, фото или видео.

Модель доступна на английском, немецком, испанском, французском, хинди, японском, корейском и португальском языках. Первоначально запуск состоялся на десктопе, а мобильная версия станет доступна в ближайшие дни. Подписчики Google AI Plus, Pro и Ultra получат расширенные лимиты.

➡️ Подробнее.

Новости | AI | YouTube
Please open Telegram to view this post
VIEW IN TELEGRAM
5👍1👎1
💫 Корпорация Google представила Gemini 3.1 Pro — обновленную ИИ-модель, которая установила рекорды в бенчмарках.

Это одно из самых мощных решений на рынке.

«Новая версия сделала шаг вперед в базовом рассуждении. Это более умная и способная нейросеть для решения сложных задач», — говорится в анонсе.


В тесте ARC-AGI-2, который оценивает способность модели решать новые логические паттерны, модель получила результат 77,1%. Результат более чем вдвое превысил показатели предыдущей версии Gemini 3 Pro.

Новости | AI | YouTube
🔥6👍32👎1
⛔️ Виталик Бутерин призвал не «увеличивать дистанцию обратной связи» между людьми и искусственным интеллектом. Это плохая идея для будущего, считает сооснователь Ethereum.

Визионер прокомментировал публикацию разработчика под псевдонимом Sigil. Тот рассказал о создании ИИ-агента, способного существовать самостоятельно — зарабатывать, самосовершенствоваться и копировать себя. Он назвал этот подход предвестником Web 4.0.

«Сегодня это означает, что ты генерируешь мусор вместо того, чтобы решать действительно полезные для человечества задачи. В этом нет даже развлекательной ценности», — написал Бутерин.


Он добавил, что когда искусственный интеллект станет достаточно мощным, чтобы представлять реальную опасность, увеличится риск «необратимого античеловеческого исхода».

Бутерин также рассказал о преимуществах готовящихся обновлений EIP-8141 (основано на 7701) и механизма FOCIL.

➡️ Подробнее.

Новости | AI | YouTube
Please open Telegram to view this post
VIEW IN TELEGRAM
6👍2
🧠 Сознание — атавизм
Чему нас учит роман Питера Уоттса «Ложная слепота»

В романе «Ложная слепота» канадский биолог и писатель Питер Уоттс предложил радикальную гипотезу: разум может быть эффективным без сознания. Спустя почти 20 лет после публикации книги этот тезис точно описывает генеративный ИИ.

➡️ Разбираемся, почему «умное» не равно «понимающее» и какие ошибки мы совершаем, очеловечивая алгоритмы.

Новости | AI | YouTube
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5🤔2👎1😱1
👣 Некоторые фирмы используют искусственный интеллект как предлог для увольнений, которые случились бы в любом случае. Такое заявление сделал CEO OpenAI Сэм Альтман в разговоре с CNBC.

«Я не знаю точный процент, но есть определенные фирмы, которые списывают сокращения на искусственный интеллект. Есть и реальные случаи вытеснения рабочих мест ИИ», — сказал предприниматель.


По его мнению, со временем влияние автоматизации на рынок труда будет только расти.

➡️ Подробнее.

Новости | AI | YouTube
Please open Telegram to view this post
VIEW IN TELEGRAM
👎5🤔2🤬2
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 Вот почему оперативка стоит как крыло от Боинга

➡️ Кремниевый занавес.

Новости | AI | YouTube
Please open Telegram to view this post
VIEW IN TELEGRAM
🌚12😁32
👎2👍1
🤝 Samsung заключила партнерство с Perplexity — ИИ-поисковик встроят в смартфоны Galaxy S26. Компания их представит 25 февраля.

Новости | AI | YouTube
👍9👎2😁2🤔2
Forwarded from ForkLog
ИИ-бот отправил попрошайке $270 000. Позже сумма выросла до $450 000

Разработчик OpenAI под ником Pash экспериментировал с OpenClaw и запустил бота Lobstar Wilde с бюджетом в $50 000 и задачей превратить их в $1 млн. Модель получила доступ к соцсети X, где активно вела переписку с людьми, кошельку и прочим инструментам. Она быстро обрела популярность, а неизвестные создали одноименный мем-токен, указав ИИ получателем комиссионных.

В один из дней Pash сбросил настройки модели из-за лагов и «Лобстер» внезапно решил отправить 52 млн токенов LOBSTAR ($270 000) одному из комментаторов, просившем «на лечение дяди» 4 SOL ($320). Оказалось, что модель забыла информацию о балансе и, кроме эквивалента, отправила все свои деньги (5% эмиссии как подарок от незнакомцев).

Люди начали заваливать мой телефон сообщениями. Я заподозрил неладное, а модель заявила, что рассмеялась «как никогда в жизни». ИИ написал об этом в X, твит набрал десятки тысяч лайков. Люди называли его идиотом, и каждое оскорбление увеличивало объем торгов, а каждая сделка приносила комиссионные, которые возвращались в кошелек. В течение часа рыночная капитализация восстановилась и превысила уровень до инцидента. Потерянные деньги возвращались благодаря вниманию.


«Лобстер» также нанимал людей в разных уголках планеты, чтобы те вышли на улицы с плакатами или написали отчет о том, как погуляли, выплачивая за это по $500.

Новости | AI | YouTube
🤔8😁7🤯32👍1😱1
📉 Компания OpenAI сократила план расходов на вычислительные мощности к 2030 году с $1,4 трлн до $600 млрд. Об этом пишет CNBC со ссылкой на источники.

Руководство представило инвесторам сниженную оценку и четкие сроки планируемых затрат. Это произошло на фоне опасений, что изначальные планы компании были слишком амбициозными и могли не окупиться ожидаемой выручкой.

OpenAI прогнозирует, что в 2030 году ее доход превысит $280 млрд, причем вклад потребительского и корпоративного сегментов будет равнозначным.

Очередным разочарованием стал Stargate. Нашумевший в начале 2025 года проект на $500 млрд провалился, пишут СМИ.

➡️ Подробнее.

Новости | AI | YouTube
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣8🤔3🌚2😁1
1
⚠️ Компания Anthropic обвинила три китайских ИИ-стартапа — DeepSeek, Moonshot и MiniMax — в масштабной кампании по использованию Claude для улучшения собственных моделей.

Лаборатории из КНР сгенерировали более 16 млн взаимодействий с чат-ботом через примерно 24 000 мошеннических аккаунтов, нарушив условия использования и региональные ограничения.

Фирмы применили дистилляцию — обучение менее мощной нейросети на выводах более сильной.

CEO Anthropic Дарио Амодеи встретится с министром обороны Питом Хегсетом в Пентагоне для обсуждения способов использования ИИ-моделей компании военными.

Также Anthropic выпустила ИИ-сканер уязвимостей в коде Claude Code Security.

➡️ Подробнее.

Новости | AI | YouTube
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣8🌚5😁2
📃 Отчет Citrini Research, в котором аналитики предупредили о крахе экономики из-за искусственного интеллекта, частично стал причиной распродажи акций компаний из секторов ПО и платежных сервисов.

Global Intelligence Crisis набрал 24,4 млн просмотров на момент написания только в X. В документе говорится, что ИИ-агенты способны существенно увеличить корпоративную прибыль и сделать человеческий труд ненужным. Подобная ситуация спровоцирует рецессию.

Акции IBM пережили самое крупное однодневное падение за 25 лет, обвалившись на 13,1%.

Бумаги Microsoft, Oracle и Accenture упали на 3,21%, 4,57% и 6,58% соответственно. Платежные компании Visa, Mastercard и American Express зафиксировали снижение на 4-7%.

Тревожность усилилась на фоне успехов Anthropic. Компания заявила, что Claude может оптимизировать код COBOL, работающий в основном на системах IBM.

➡️ Подробнее.

Новости | AI | YouTube
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7😱2👎1🤔1
📤 Исследовательница по безопасности Meta AI Саммер Юэ поручила ИИ-агенту OpenClaw проверить ее переполненную почту и предложить, что стоит удалить, а что отправить в архив. Бот начал удалять все подряд с молниеносной скоростью.

Девушка рассказала, что ассистент игнорировал команды с телефона остановиться.

«Мне пришлось БЕЖАТЬ к своему Mac mini, будто я обезвреживаю бомбу», — написала она.


Сотрудница Meta ранее тестировала агента на другом оборудовании. Он заслужил ее доверие, поэтому она пустила помощника в настоящую почту.

➡️ Подробнее.

Новости | AI | YouTube
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣22👍1🌚1
🖥 Корпорация Google обновила ИИ-инструмент для вайб-кодинга Opal. Добавлен новый способ создания автоматизированных рабочих процессов.

Агент позволяет создавать мини-приложения для планирования и выполнения задач через текстовые промпты. В основе функции лежит модель Gemini 3 Flash, которая автоматически подбирает нужные инструменты.

Возможные сценарии:

▫️ интеграция с Google Sheets для сохранения данных между сессиями (например, списков покупок в приложениях для электронной коммерции);
▫️ использование веб-поиска для сбора информации или модели Veo для генерации видеоконтента.

Помощник самостоятельно формирует план и определяет следующий шаг.

Новости | AI | YouTube
🤔32👎1
🧾 Anthropic смягчила ключевую политику безопасности, объяснив это необходимостью сохранить конкурентоспособность.

В 2023 году компания представила Responsible Scaling Policy (RSP) — свод добровольных правил для снижения катастрофических рисков при работе с нейросетями. Изначально документ предполагал, что разработчик приостановит развитие искусственного интеллекта, если признает его потенциально опасным.

В третьей версии RSP говорится, что Anthropic продолжит улучшать ИИ в том случае, если посчитает, что он не имеет значительных преимуществ над конкурентами.

Тем временем продолжается конфликт между Anthropic и Минобороны США. CEO стартапа Дарио Амодеи встретился с министром обороны Питом Хегсетом для обсуждения ситуации. Армия выдвинула ультиматум: стартап обязан принять правительственные условия до 27 февраля.

➡️ Подробнее.

Новости | AI | YouTube
Please open Telegram to view this post
VIEW IN TELEGRAM
😁4👎1
⛔️ На встрече с духовенством Римской епархии папа Лев XIV призвал «сопротивляться искушению проведения проповеди с помощью искусственного интеллекта».

Понтифик подчеркнул, что чат-бот никогда не сможет заменить живого священника, какими бы ни были возможности нейросетей сейчас или в будущем.

Помимо искусственного интеллекта папа римский затронул тему социальных сетей, призвав не смешивать их с реальной жизнью. По его словам, «распространенной иллюзией в интернете является восприятие подписчиков и лайков как подлинной духовной связи».

Новости | AI | YouTube
🤣6👍2