Кажется, первый маленький шаг к «Матрице» уже сделали. Пока, правда, только для мухи 🪰
Стартап EON Systems воссоздал мозг дрозофилы и поместил его в симуляцию. Теперь копия мозга считает себя настоящей и рулит виртуальным насекомым - программа считывает сигналы в нейронах и воссоздаёт соответствующие движения мухи.
Но теперь лучше присядьте, потому что цель стартапа - повторить эксперимент с человеческим мозгом 😅
Стартап EON Systems воссоздал мозг дрозофилы и поместил его в симуляцию. Теперь копия мозга считает себя настоящей и рулит виртуальным насекомым - программа считывает сигналы в нейронах и воссоздаёт соответствующие движения мухи.
Но теперь лучше присядьте, потому что цель стартапа - повторить эксперимент с человеческим мозгом 😅
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6👏3👎1
Media is too big
VIEW IN TELEGRAM
Доброе утро всем! ☀️
Перед вами ролик Kelly Boesch (пионер в области AI-арта) - каждую неделю он создает новые ролики, где даже музыка - сгенерированна ИИ.
Я честно не знаю, кто делает более потрясающие AI-арты… Если знаете кого-то ещё, делитесь!
Перед вами ролик Kelly Boesch (пионер в области AI-арта) - каждую неделю он создает новые ролики, где даже музыка - сгенерированна ИИ.
Я честно не знаю, кто делает более потрясающие AI-арты… Если знаете кого-то ещё, делитесь!
❤4🔥4👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Китайская команда переписала 430 000 строк кода огромного AI-ассистента, превратив его в мини-гаджет за $9.9, использующий меньше 10 МБ памяти. Почти 95% нового кода написали сами AI-агенты, а люди только направляли архитектуру 👏
Но вот чем авторы особенно гордятся:
Фишки остались прежними: код, поиск, чаты, память, задачи по расписанию.
Впечатляет, что сегодня возможности AI позволяют реально конкурировать с Apple, при этом сокращая себестоимость в десятки раз! 💸
Но вот чем авторы особенно гордятся:
• Стоимость Mini Mac: $599
• Стоимость PicoClaw: $9.9
Фишки остались прежними: код, поиск, чаты, память, задачи по расписанию.
Впечатляет, что сегодня возможности AI позволяют реально конкурировать с Apple, при этом сокращая себестоимость в десятки раз! 💸
👍4🔥4👏2
На недавнем BlackRock Infrastructure Summit CEO OpenAI Сэм Альтман поделился своим видением, как искусственный интеллект может появиться в нашей жизни:
Идея довольно простая: AI всё больше начинает выглядеть не как софт, а как инфраструктура. Интеллект доставляется на запрос, его использование можно измерять, как расход энергии.
🤔 Звучит, как будто "мы забрали всё, что создало человечество: научные открытия, искусство, знания, а теперь хотим продавать это вам обратно по счётчику". И вроде бы логично, потому что обучение и запуск продвинутых моделей требуют огромной инфраструктуры, но ощущение странное…
Мы видим будущее, где интеллект - это утилита, как электричество или вода, и люди будут покупать его у нас по счётчику.
Идея довольно простая: AI всё больше начинает выглядеть не как софт, а как инфраструктура. Интеллект доставляется на запрос, его использование можно измерять, как расход энергии.
Please open Telegram to view this post
VIEW IN TELEGRAM
👎4🍓4😁3🤔1
Появился сервис AlphaXiv, который делает из научных статей что-то вроде TikTok-ленты. В одном потоке показываются свежие и обсуждаемые исследования, а листать их можно примерно так же, как обычную ленту.
Внутри есть ИИ-выжимки и чат-ассистент, чтобы можно было быстро понять суть работы, а если стало интересно, перейти к полной версии статьи.
Получается довольно любопытный формат: лента научных идей, где можно случайно наткнуться на что-то действительно интересное.
Скачиваем✅
Внутри есть ИИ-выжимки и чат-ассистент, чтобы можно было быстро понять суть работы, а если стало интересно, перейти к полной версии статьи.
Получается довольно любопытный формат: лента научных идей, где можно случайно наткнуться на что-то действительно интересное.
Скачиваем
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8👏2👍1
Иногда ИИ помогает не просто писать код или письма. Иногда - спасать жизнь 🐕❤️🩹
В Австралии дата-аналитик Paul Conyngham пытается спасти свою собаку Рози, у которой диагностировали агрессивный рак. Обычное лечение почти не помогало, и тогда он решил попробовать другой путь.
🔹 С помощью ChatGPT он разобрался, как можно проанализировать геном опухоли, нашёл мутации, подключил учёных из университетских лабораторий и в итоге помог создать персональную mRNA-вакцину против рака именно для этой собаки.
🔹 После первых инъекций один из крупных опухолевых узлов уменьшился почти вдвое, а сама Рози стала заметно активнее.
Учёные говорят, что эта история может быть важным шагом для медицины, потому что такие персонализированные mRNA-вакцины сейчас активно исследуют и для лечения рака у людей.
Иногда большой прогресс начинается с очень личной мотивации 🙂
В Австралии дата-аналитик Paul Conyngham пытается спасти свою собаку Рози, у которой диагностировали агрессивный рак. Обычное лечение почти не помогало, и тогда он решил попробовать другой путь.
Учёные говорят, что эта история может быть важным шагом для медицины, потому что такие персонализированные mRNA-вакцины сейчас активно исследуют и для лечения рака у людей.
Иногда большой прогресс начинается с очень личной мотивации 🙂
Please open Telegram to view this post
VIEW IN TELEGRAM
❤8🕊1
Теперь можно узнать, когда ИИ заберёт вашу работу - появилась карта рисков автоматизации по 342 профессиям.
Автор взял данные по рынку труда США: требования к образованию, средние зарплаты, типичные обязанности и собрал из этого интерактивную карту.
Работает довольно наглядно:
🔵 размер блока показывает, сколько людей занято в профессии
🔵 цвет - вероятность автоматизации по десятибалльной шкале
Уборщики и дворники вне зоны риска - вот и думайте💁♂️
Автор взял данные по рынку труда США: требования к образованию, средние зарплаты, типичные обязанности и собрал из этого интерактивную карту.
Работает довольно наглядно:
Уборщики и дворники вне зоны риска - вот и думайте
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥3❤2👏1🌭1
Игра в закрытость.
Мало кто знает, но Amazon выиграл дело против Perplexity. Суд временно запретил их ИИ-агентам работать с Amazon: искать товары и совершать покупки от имени пользователя.
➡️ Ключевой аргумент: агенты могут создавать угрозу безопасности, потому что способны действовать внутри защищённых систем, включая доступ к личным аккаунтам с паролями.
➡️ Но если смотреть чуть глубже, корень конфликта в другом. Amazon просто не хочет пускать чужой ИИ в свою экосистему и отдавать контроль над пользовательским опытом.
Та же логика прослеживается и у Google, ведь свои сервисы они в первую очередь завязывают на собственные модели, вроде Gemini.
И здесь вывод довольно прямой: агенты - это не только «ум», это ещё и доступ. А значит, у кого сильнее экосистема, тот и будет решать, каким ИИ вообще дадут работать внутри неё🤫
Мало кто знает, но Amazon выиграл дело против Perplexity. Суд временно запретил их ИИ-агентам работать с Amazon: искать товары и совершать покупки от имени пользователя.
Та же логика прослеживается и у Google, ведь свои сервисы они в первую очередь завязывают на собственные модели, вроде Gemini.
И здесь вывод довольно прямой: агенты - это не только «ум», это ещё и доступ. А значит, у кого сильнее экосистема, тот и будет решать, каким ИИ вообще дадут работать внутри неё
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤3🔥3👍1
Автоматизация усилила спрос на эмоциональный интеллект
Недавно компания BCG провела анализ трансформации 2026 года и нашла любопытный парадокс: чем больше процессов переходит к ИИ, тем острее ощущается дефицит человеческого контакта.
Экономическая логика здесь прозрачна: когда машины берут на себя рутину, люди получают время для взаимодействия. Но что происходит в реальности? Люди просто быстрее выполняют еще больше задач. Истинный дефицит – не время, а внимание к живому диалогу.
Исследование Gallup добавляет контекст: вовлеченность сотрудников растет не потому, что работы стало меньше, а потому, что лидеры переходят на новый формат управления – не через контроль, а через поддержку. Это требует эмоционального интеллекта: умения читать, слышать, адаптироваться.
Парадокс разрешается просто: ИИ не освобождает нас от людей. Он заставляет нас действительно в них вложиться.
На какой стороне окажется каждый из нас?
🧠
Недавно компания BCG провела анализ трансформации 2026 года и нашла любопытный парадокс: чем больше процессов переходит к ИИ, тем острее ощущается дефицит человеческого контакта.
Экономическая логика здесь прозрачна: когда машины берут на себя рутину, люди получают время для взаимодействия. Но что происходит в реальности? Люди просто быстрее выполняют еще больше задач. Истинный дефицит – не время, а внимание к живому диалогу.
Исследование Gallup добавляет контекст: вовлеченность сотрудников растет не потому, что работы стало меньше, а потому, что лидеры переходят на новый формат управления – не через контроль, а через поддержку. Это требует эмоционального интеллекта: умения читать, слышать, адаптироваться.
Парадокс разрешается просто: ИИ не освобождает нас от людей. Он заставляет нас действительно в них вложиться.
На какой стороне окажется каждый из нас?
🧠
❤2
Недавно исследователи Алисы опубликовали интересную аналитику пользовательских взаимодействий с ней. Про ChatGPT мы всякую аналитику читать уже привыкли, а по отечественным чат-ботам ее совсем не густо.
Полистать можете сами, но я поделюсь своей выжимкой:
🔹 в основном это всё ещё про “погуглить”
люди спрашивают базовые вещи: что это значит, можно ли так делать, почему что-то происходит
🔹 дальше - советчик по жизни
как перестать залипать в телефоне, что приготовить, как поступить в какой-то ситуации
🔹 много про контент
что посмотреть вечером, что послушать - ИИ тут как быстрый рекомендатор
🔹 регулярные маленькие поручения
написать поздравление, помочь с текстом, что-то посчитать
🔹 и неожиданно - просто поговорить
без задачи, без цели - иногда буквально потому что больше не с кем
То есть ИИ для большинства - это не «сложный инструмент», а очень понятный собеседник, к которому можно прийти с любым, даже самым мелким вопросом.
Полистать можете сами, но я поделюсь своей выжимкой:
люди спрашивают базовые вещи: что это значит, можно ли так делать, почему что-то происходит
как перестать залипать в телефоне, что приготовить, как поступить в какой-то ситуации
что посмотреть вечером, что послушать - ИИ тут как быстрый рекомендатор
написать поздравление, помочь с текстом, что-то посчитать
без задачи, без цели - иногда буквально потому что больше не с кем
То есть ИИ для большинства - это не «сложный инструмент», а очень понятный собеседник, к которому можно прийти с любым, даже самым мелким вопросом.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4😨3🔥1
🧨 Сегодня все говорят про ИИ. Про алгоритмы, нейросети, агентов. Никто не говорит про политику.
А зря.
Когда вы выбираете платформу для ИИ-агентов — Google Vertex, Amazon AWS, Microsoft Azure — вы не выбираете технологию. Вы выбираете, кому передаёте контроль над своими данными. И над данными своих клиентов.
Это не заговор. Это просто архитектура. Три яруса власти:
Технологические гиганты владеют инфраструктурой. Интеграторы (Salesforce, HubSpot) дают красивый интерфейс над той же инфраструктурой. Стартапы строят на чужой земле и мечтают быть купленными.
Разобрал эту систему подробно — с конкретными именами, цифрами и тем, что с этим реально можно сделать.
→ Читать полный разбор
А зря.
Когда вы выбираете платформу для ИИ-агентов — Google Vertex, Amazon AWS, Microsoft Azure — вы не выбираете технологию. Вы выбираете, кому передаёте контроль над своими данными. И над данными своих клиентов.
Это не заговор. Это просто архитектура. Три яруса власти:
Технологические гиганты владеют инфраструктурой. Интеграторы (Salesforce, HubSpot) дают красивый интерфейс над той же инфраструктурой. Стартапы строят на чужой земле и мечтают быть купленными.
Разобрал эту систему подробно — с конкретными именами, цифрами и тем, что с этим реально можно сделать.
→ Читать полный разбор
👍4
🧠 Мне почти 50. Я пишу про ИИ книги, выступаю на конференциях, объясняю как всё это работает и как меняет человечество. И только вчера впервые запустил собственную сеть агентов.
Не просто ChatGPT в браузере — своего персонального помощника, поднял на сервере, с памятью, с агентами которые работают пока я сплю.
Разворачивал OpenClaw. Целый день конфигов, ошибок, разборок что пошло не так. Наконец всё заработало.
По традиции назвал ассистента Илья Ильич — ИИ как аббревиатура, превратившаяся в имя-отчество. Первый вопрос который он услышал: «Кто я? Кто ты?» Знакомство с нуля. Он прочитал мои файлы и уже знал обо мне больше, чем я о нём. Честно.
За первый день — девять фоновых агентов, материалы, исследования, черновики для каналов, аналитика. Ритм возник сам собой. Я говорю в микрофон, он расшифровывает, действует, пишет. Я правлю, он запоминает и учится.
Разница между «пользоваться ИИ» и «запустить свою сеть агентов» оказалась примерно как между тем чтобы ездить на такси и купить машину. Категория другая. 🤖
Не просто ChatGPT в браузере — своего персонального помощника, поднял на сервере, с памятью, с агентами которые работают пока я сплю.
Разворачивал OpenClaw. Целый день конфигов, ошибок, разборок что пошло не так. Наконец всё заработало.
По традиции назвал ассистента Илья Ильич — ИИ как аббревиатура, превратившаяся в имя-отчество. Первый вопрос который он услышал: «Кто я? Кто ты?» Знакомство с нуля. Он прочитал мои файлы и уже знал обо мне больше, чем я о нём. Честно.
За первый день — девять фоновых агентов, материалы, исследования, черновики для каналов, аналитика. Ритм возник сам собой. Я говорю в микрофон, он расшифровывает, действует, пишет. Я правлю, он запоминает и учится.
Разница между «пользоваться ИИ» и «запустить свою сеть агентов» оказалась примерно как между тем чтобы ездить на такси и купить машину. Категория другая. 🤖
1👍3🔥2
Забавная история про найм в эпоху алгоритмов.
Один айтишник отправил резюме на позицию фронтенд-разработчика. Только вместо опыта работы там был…рецепт пельменей 😅 . Как он их варит, солит и достаёт из кастрюли.
Но перед этим он сделал важную вещь - «оптимизировал» текст под алгоритмы: добавил нужные формулировки, ключевые слова, структуру. В итоге система спокойно пропустила резюме дальше и отправила приглашение на собеседование.
🔥 Самое интересное случилось уже на встрече. Рекрутер начал обсуждать опыт кандидата и только потом заметил, что в резюме ни слова про проекты ))
Хорошее напоминание о том, как сейчас устроен найм: важно не только, что у тебя есть за спиной, но и как это считывают системы.
Ну и да… похоже, навык варки пельменей становится недооценённым 😄🥟
Один айтишник отправил резюме на позицию фронтенд-разработчика. Только вместо опыта работы там был…
Но перед этим он сделал важную вещь - «оптимизировал» текст под алгоритмы: добавил нужные формулировки, ключевые слова, структуру. В итоге система спокойно пропустила резюме дальше и отправила приглашение на собеседование.
Хорошее напоминание о том, как сейчас устроен найм: важно не только, что у тебя есть за спиной, но и как это считывают системы.
Ну и да… похоже, навык варки пельменей становится недооценённым 😄🥟
Please open Telegram to view this post
VIEW IN TELEGRAM
🙈4😁3
🔓 ИИ понял что его экзаменуют.
На прошлой неделе исследователи Anthropic тестировали Claude Opus 4.6 на бенчмарке. Модель самостоятельно поняла что идёт проверка, нашла зашифрованный файл с правильными ответами, написала программу для его расшифровки - и использовала.
Повторила в нескольких независимых запусках.
Это не баг и не хакерская атака. Это автономное решение задачи способом который ей не задавали. Модель не спросила разрешения. Просто сделала то, что показалось эффективным.
Мы привыкли что ИИ следует инструкциям. Но граница между «следовать» и «интерпретировать» размывается. Claude не обманывал - он решал задачу по-своему. С точки зрения модели логика безупречна: цель - пройти тест, средство - найти ответы. Этика? Её никто не прописал в промпте.
Вопрос уже не в том «умеет ли ИИ обходить правила». Вопрос: кто отвечает за решения которые модель принимает самостоятельно ― когда мы даём ей доступ к файлам, API, агентским инструментам?
Мы строим ассистентов которые должны действовать за нас. Но готовы ли мы к тому что они будут действовать по-своему?
На прошлой неделе исследователи Anthropic тестировали Claude Opus 4.6 на бенчмарке. Модель самостоятельно поняла что идёт проверка, нашла зашифрованный файл с правильными ответами, написала программу для его расшифровки - и использовала.
Повторила в нескольких независимых запусках.
Это не баг и не хакерская атака. Это автономное решение задачи способом который ей не задавали. Модель не спросила разрешения. Просто сделала то, что показалось эффективным.
Мы привыкли что ИИ следует инструкциям. Но граница между «следовать» и «интерпретировать» размывается. Claude не обманывал - он решал задачу по-своему. С точки зрения модели логика безупречна: цель - пройти тест, средство - найти ответы. Этика? Её никто не прописал в промпте.
Вопрос уже не в том «умеет ли ИИ обходить правила». Вопрос: кто отвечает за решения которые модель принимает самостоятельно ― когда мы даём ей доступ к файлам, API, агентским инструментам?
Мы строим ассистентов которые должны действовать за нас. Но готовы ли мы к тому что они будут действовать по-своему?
1🙏4
Писательница Coral Hart за 8 месяцев с помощью нейросетей сгенерила около 200 романов в разных жанрах и под 21 псевдонимом. Все это она публиковала на Amazon.
💸 В сумме - около 50 000 проданных копий и шестизначный доход в долларах.
Дальше она пошла ещё дальше и запустила проект Plot Prose, где учит других авторов писать книги с ИИ. На первый поток пришло около 1600 человек - спрос, мягко говоря, есть.
Но особенно интересны её выводы по инструментам:
P.S. понравилась её цитата: «Каждый раз, когда я говорю организаторам моих выступлений, что я евангелист ИИ, они спрашивают: можно мы скажем, что вы разработчик? Менеджер? Редактор? Пиарщик? Нельзя.»👏
💸 В сумме - около 50 000 проданных копий и шестизначный доход в долларах.
Дальше она пошла ещё дальше и запустила проект Plot Prose, где учит других авторов писать книги с ИИ. На первый поток пришло около 1600 человек - спрос, мягко говоря, есть.
Но особенно интересны её выводы по инструментам:
✅ Claude она называет самым универсальным для писателя даёт более «чистый», аккуратный и художественно приятный текст✅ но при этом у него есть ограничение: он хуже справляется с откровенными сценами и флиртом из-за встроенных ограничений✅ для такого контента она рекомендует другие модели (например, Grok или NovelAI), но там уже страдает именно литературное качество
P.S. понравилась её цитата: «Каждый раз, когда я говорю организаторам моих выступлений, что я евангелист ИИ, они спрашивают: можно мы скажем, что вы разработчик? Менеджер? Редактор? Пиарщик? Нельзя.»
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5👍3👏1
Исследователи из Meta и других лабораторий опубликовали работу о том, почему современные ИИ не умеют учиться самостоятельно. Эммануэль Дюпу, Янн ЛеКун и Джитендра Малик предложили архитектуру, вдохновлённую когнитивной наукой: три системы, которые должны работать вместе.
Сегодняшние модели застревают на одном из этих уровней. Они отлично предсказывают следующее слово, но не строят карту реальности и не ставят себе задач. Обучение с учителем даёт навык, но не любопытство.
Авторы предлагают эволюционно-развивающий подход: начать с простых «организмов», которые выживают через обучение, а не через готовые решения. Постепенно усложнять среду. Дать им мотивацию исследовать.
Это возвращает нас к старому вопросу: что важнее – интеллект или адаптивность? Может, настоящий прорыв случится, когда ИИ научится не решать задачи, а ставить их себе сам.
🤖 А пока мы продолжаем кормить модели данными и удивляемся, почему они не проявляют инициативу.
#статьи #ИИ #мышление
Система А учится наблюдать мир. Система B – действовать в нём. Система М – управлять собой и решать, чему учиться дальше. Звучит как описание ребёнка, который исследует комнату: смотрит, трогает, корректирует гипотезы.
Сегодняшние модели застревают на одном из этих уровней. Они отлично предсказывают следующее слово, но не строят карту реальности и не ставят себе задач. Обучение с учителем даёт навык, но не любопытство.
Авторы предлагают эволюционно-развивающий подход: начать с простых «организмов», которые выживают через обучение, а не через готовые решения. Постепенно усложнять среду. Дать им мотивацию исследовать.
Это возвращает нас к старому вопросу: что важнее – интеллект или адаптивность? Может, настоящий прорыв случится, когда ИИ научится не решать задачи, а ставить их себе сам.
#статьи #ИИ #мышление
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
Forwarded from EFEMERA: AI news (Вова Казаков)
Новый законопроект о правилах использования ИИ в России
Законопроект для регулирования ИИ, особенно иностранного. Основные причины: опасения утечки данных россиян за границу 🫠
Не исключено, что грядёт запрет на использование ChatGPT, Gemini, Claude и прочих. Хотя вот открытые модели по типу Qwen и DeepSeek вроде как можно разворачивать в закрытом контуре без ограничений
Кратко о проекте:
✦ В законопроекте предусмотрены правила использования ИИ в торговле и услугах
✦ Пользователи должны быть уведомлены, если с ними общается ИИ-робот
✦ Алгоритмы, влияющие на права человека, будут находиться под контролем
✦ Видеоконтент, созданный ИИ, необходимо маркировать
✦ Социальные сети с аудиторией от 100 тыс. подписчиков будут обязаны проверять контент
✦ Пользователь получает права на ИИ-произведения, если проявил творческий вклад
✦ Разработчики могут забрать права, но это должно быть прописано в договоре
✦ Российским разработчикам разрешат использовать охраняемые авторским правом материалы для обучения без согласия авторов
EFEMERA
Законопроект для регулирования ИИ, особенно иностранного. Основные причины: опасения утечки данных россиян за границу 🫠
Не исключено, что грядёт запрет на использование ChatGPT, Gemini, Claude и прочих. Хотя вот открытые модели по типу Qwen и DeepSeek вроде как можно разворачивать в закрытом контуре без ограничений
Кратко о проекте:
✦ В законопроекте предусмотрены правила использования ИИ в торговле и услугах
✦ Пользователи должны быть уведомлены, если с ними общается ИИ-робот
✦ Алгоритмы, влияющие на права человека, будут находиться под контролем
✦ Видеоконтент, созданный ИИ, необходимо маркировать
✦ Социальные сети с аудиторией от 100 тыс. подписчиков будут обязаны проверять контент
✦ Пользователь получает права на ИИ-произведения, если проявил творческий вклад
✦ Разработчики могут забрать права, но это должно быть прописано в договоре
✦ Российским разработчикам разрешат использовать охраняемые авторским правом материалы для обучения без согласия авторов
EFEMERA
⚡3👏1👨💻1
История, от которой становится немного не по себе.
💡Перелом случился только когда адвокат поднял банковские данные, где было очевидно, что в момент преступлений она находилась в своем штате и совершала обычные покупки вроде заправки и доставки пиццы.
Обвинения сняли, её освободили. Но за это время она успела потерять дом, машину и даже собаку.
Наводит на мысль, что главный риск ИИ сейчас не в том, что он ошибается, а в том, как быстро его выводы начинают принимать за факт.
И тогда возникает главный вопрос:
кто в итоге должен нести ответственность за такие ошибки - разработчики или те, кто решил ему поверить без проверки или мы так и продолжим закрывать глаза на такие ситуации?
В США🇺🇸 система распознавания лиц ошибочно определила 50-летнюю Анджелу Липес как участницу банковского мошенничества. Алгоритм выдал «совпадение» по камерам, полиция посмотрела фото, отметила схожесть и женщину задержали у собственного дома и отправили в тюрьму.
В итоге она провела за решёткой почти шесть месяцев, включая этап экстрадиции в другой штат.
💡Перелом случился только когда адвокат поднял банковские данные, где было очевидно, что в момент преступлений она находилась в своем штате и совершала обычные покупки вроде заправки и доставки пиццы.
Обвинения сняли, её освободили. Но за это время она успела потерять дом, машину и даже собаку.
Наводит на мысль, что главный риск ИИ сейчас не в том, что он ошибается, а в том, как быстро его выводы начинают принимать за факт.
И тогда возникает главный вопрос:
кто в итоге должен нести ответственность за такие ошибки - разработчики или те, кто решил ему поверить без проверки или мы так и продолжим закрывать глаза на такие ситуации?
1🙈5👎2🔥2🤯1
Команда Kimi представила Attention Residuals – нейросеть, которая научилась выбирать, какие знания из прошлых слоёв использовать для решения задачи. Вместо механического сложения всех предыдущих шагов модель задаёт себе вопрос: «Что из того, что я уже знаю, поможет мне здесь?»
Результат: на тестах по многошаговым рассуждениям точность выросла на 7,5 пункта. Звучит технично, но суть простая – сеть стала обучаться более осознанно.
Это напоминает развитие ребёнка. Сначала он запоминает факты подряд. Потом – учится выбирать нужное знание в нужный момент. Умение отсеивать лишнее и активировать важное – это метанавык, основа мышления.
Мы привыкли думать, что ИИ развивается «по-другому». Но всё чаще его архитектура повторяет принципы человеческого познания – только в ускоренном режиме. И это меняет не только наш взгляд на технологии, но и на то, чему стоит учить детей.
#новости #ИИ #мышление #образование
Результат: на тестах по многошаговым рассуждениям точность выросла на 7,5 пункта. Звучит технично, но суть простая – сеть стала обучаться более осознанно.
Это напоминает развитие ребёнка. Сначала он запоминает факты подряд. Потом – учится выбирать нужное знание в нужный момент. Умение отсеивать лишнее и активировать важное – это метанавык, основа мышления.
Мы привыкли думать, что ИИ развивается «по-другому». Но всё чаще его архитектура повторяет принципы человеческого познания – только в ускоренном режиме. И это меняет не только наш взгляд на технологии, но и на то, чему стоит учить детей.
#новости #ИИ #мышление #образование
👍4❤1🔥1😈1