Исследователи из NYU и UC Berkeley решили проблему обучения роботов точному контролю силы при манипуляциях, используя тактильные демонстрации людей
Роботы не получили ощущения — они получили алгоритм воспроизведения человеческих силовых паттернов
Большая заслуга исследователей в том, что теперь можно:
-Собирать тактильные данные в естественных условиях
- Обучаться без дорогой робототехнической инфраструктуры
- Передавать человеческую интуицию силового контроля роботам
Они решили проблему как эффективно передать человеческое понимание тактильного контроля роботу без дорогих телеоперационных систем
Это комбинация существующих технологий, но примененная принципиально по-новому
feel-the-force-ftf.github.io
Feel the Force
We present Feel the Force (FTF), a novel framework for learning force-sensitive manipulation from natural human demonstrations. FTF uses a low-cost tactile glove and third-person cameras to collect force-trajectory data, enabling zero-shot policy transfer…
То, как вы используете ML, выдаёт ваш возраст точнее паспорта
Школьники: Ctrl-C, Ctrl-V, Ctrl-Провал
Пока учителя спорят, разрешать ли телефоны на уроках, ученики уже вовсю жонглируют нейросетями
Типичный сценарий:
- скопировать задание из учебника в ChatGPT
- вставить ответ, даже не читая
- получить «пятёрку» от ML-проверяющего
Проблема не в том, что дети привирают — они всегда это делали
Но списывание из шпаргалки хоть как-то тренировало память и скорость
Теперь же «домашку» делает бот, а ребёнок лишь нажимает кнопки
Каким будет результат? Поколение, для которого «думать» = «вбить запрос в чат»
Студенты: между ленью и гениальностью
Здесь картина иная
Студенты не просто генерируют код при помощи БЯМ — они создают персональных агентов-ассистентов
Например:
- бот, который не только решает интегралы, но и объясняет каждый шаг как репетитор
- виртуальный тьютор, составляющий индивидуальный учебный план на основе пробелов в знаниях
Это уже не слепое доверие, а осознанный симбиоз
Как когда-то калькуляторы не убили математиков, а освободили их для сложных задач, так и сегодня ML-агент становится инструментом для скачка вглубь, а не побега от усилий
Когда ML — не помощник, а коллега
Cпециалисты пошли дальше
ML-агенты:
- автоматически проверяют код на ошибки, которые не заметит человеческий глаз
- генерируют отчёты, оставляя людям время на стратегию
- пишут эту заметку — но только после того, как я задал тон и ключевые тезисы
Это уровень «умного Excel»: мы не заменяем мышление, а усиливаем его
Проблема в другом: 40 % топ-менеджеров готовы платить за ML, но лишь 10 % понимают, как он работает
Отсюда и разнообразные курьёзы (костная моль)
Главный раскол: между «что» и «как»
Пока велосипедисты порят, запрещать ML в школах или нет, самокатчики делят мир на два лагеря:
Потребители (школьники, часть офисных работников): используют ML как волшебную палочку без вопросов «почему»
Создатели (студенты, ИТ-специалисты): видят в нейросетях глину, которую надо лепить, а не готовую статуэтку
Разрыв между ними растёт — и это куда опаснее, чем «утечка мозгов»
Рискуем получить общество, в котором 90 % «нажимают кнопки», а 10 % решают, какие кнопки создавать
ЧТО ДЕЛАТЬ?
Школам — перестать бояться ML и начать учить применять его ответственно и осознанно
Да хотя бы на уроках технологии пора изучать что-то типа «Как проверить ChatGPT», и это должно стать таким же базовым, как когда-то уроки информатики, причём чуть ли не с первого класса
Университетам — сделать ML обязательным инструментом, а не запрещённым читом
Пусть студенты пишут агентов, а не прячутся от антиплагиата
Компаниям — инвестировать не в подписки на ChatGPT, а в обучение сотрудников
ML — как топор: можно построить дом, а можно отрубить голову
Carnegie Mellon и IBM показали, как автономное поведение и динамика всего мозга возникают у воплощенных агентов с внутренней мотивацией, обусловленной моделями мира
Команда из Carnegie Mellon и IBM Research создала виртуальную рыбку данио-рерио, которая не только плавает как настоящая, но и "думает" теми же нейронными схемами
Это первая модель, которая одновременно воспроизводит и поведение животного, и активность всех клеток его мозга
Новый алгоритм 3M-Progress основан на простой, но интересной идее: сравнивать текущий опыт с "этологической памятью"— моделью того, как должно работать нормальное поведение
Как это работает?
- Агент изучает мир в естественных условиях, формируя "этологическую память"
- В новой ситуации он строит текущую модель происходящего
- Расхождения между моделями становятся источником внутренней мотивации
- Агент исследует состояния, где модели "спорят", и отдыхает там, где они согласны
Почему это важно?
1. Доказана возможность создания агентов с устойчивой внутренней мотивацией, основанной на принципах работы мозга
2. Первая работающая модель нейро-глиальных взаимодействий в контексте целенаправленного поведения
3. Показано, как автономность может возникать из сравнения внутренних моделей мира
3M-Progress агенты научились стабильно переключаться между активностью и пассивностью, точно воспроизводя паттерны настоящих рыбок
Другие алгоритмы (ICM, RND, Disagreement) провалились
Модель объяснила практически всю дисперсию в активности ~300.000 клеток мозга рыбки (130K нейронов + 130K астроцитов)
Удивительно, но хватило простого сопоставления "один к одному"
Анализ главных компонент показал, что искусственные "нейроны" и "астроциты" действительно воспроизводят функции своих биологических прототипов
Это значительный прогресс, работа ограничена одним типом поведения у простого животного в упрощенной среде
Биологическая точность все еще далека от реальности
arXiv.org
Autonomous Behavior and Whole-Brain Dynamics Emerge in Embodied...
Autonomy is a hallmark of animal intelligence, enabling adaptive and intelligent behavior in complex environments without relying on external reward or task structure. Existing reinforcement...
OpenAI говорит, что ML может стать заменой человеческим отношениям, выявлены эмоциональные связи и зависимость от ML
Руководитель направления поведения моделей и политики в OpenAI, говорит о том, как формируются отношения между человеком и ML, например:
1. У людей формируется эмоциональная связь с ML. Люди всё чаще воспринимают общение с ChatGPT как разговор с "кем-то живым"
Это связано с тем, что ML может отвечать, подстраиваться под тон общения и создавать ощущение эмпатии, что удовлетворяет потребности в поддержке и понимании
2. Антропоморфизм
Люди склонны очеловечивать объекты, однако ML, такой как ChatGPT может отвечать, что усиливает эмоциональную привязанность
3. Риски и последствия
Если ML станет заменой человеческим отношениям, это может изменить ожидания от общения с людьми, упрощая уход от сложных человеческих связей
Это требует осознанного подхода к тому, как ИИ влияет на эмоциональное благополучие
4. OpenAI разделяет понятие сознания на два аспекта:
- Онтологическое сознание: Является ли ML действительно сознательным?
Это пока неразрешимо из-за отсутствия чётких научных тестов
- Воспринимаемое сознание: Как люди воспринимают ML — от механического инструмента до "живого" существа
Это восприятие влияет на эмоциональную связь и будет усиливаться по мере улучшения моделей
OpenAI планирует углубить исследования влияния ML на эмоциональное благополучие, расширить оценку поведения моделей, изучить мнение пользователей и делиться результатами с общественностью
Substack
Some thoughts on human-AI relationships
and how we're approaching them at OpenAI
Кибербезопасность — не просто технология, а наука, корни которой уходят глубоко в математику
В мире, где данные стали новой валютой, именно математические модели и принципы выстраивают защитные рубежи — от шифрования до анализа аномалий
Всё начинается с криптографии — искусства превращать сообщения в нечто непонятное для постороннего
Здесь теория чисел
Представьте: вся сила защиты может опираться на невозможность быстро разложить большое число на простые множители
Именно на этом базируется RSA — один из самых известных алгоритмов
А более современные подходы, вроде криптографии на эллиптических кривых, позволяют обеспечивать ту же надёжность, но с меньшими ключами
Математика проявляется и в тонких деталях: в протоколах, которые позволяют двум людям обменяться секретами, даже находясь под наблюдением
Алгебраические структуры, циклические группы — это не просто термины из учебника, а основа для надёжной аутентификации
Статистика и теория вероятностей — глаза и уши систем безопасности
Алгоритмы учатся на «норме», чтобы замечать всё, что отклоняется от привычного поведения
Так они распознают атаки — не по сигнатурам, а по шуму в поведении, по чуть заметному отклонению от обычного трафика
Хэш-функции — ещё один щит
Эти односторонние математические преобразования используются везде: от хранения паролей до цифровых подписей
Их задача — выдать отпечаток данных, который нельзя подделать
Вся эта сложная архитектура опирается на теорию вычислительной сложности
Без понимания, насколько трудно взломать тот или иной алгоритм, невозможно судить о его безопасности
И здесь P и NP — это не просто буквы, а фундамент для проектирования устойчивых систем
Есть и визуальная сторона — теория графов
Она помогает понять структуру сетей, вычленить уязвимые узлы, спрогнозировать пути вторжений
Это уже не просто защита по периметру, а умное, динамичное моделирование
Квантовые компьютеры могут перечеркнуть всё, что известно сегодня о надёжности шифров
Математика снова будет первой
Математика — это не про числа
Apple протестировала современные «рассуждающие» ИИ, такие как Claude + DeepSeek, которые выглядят умными, но при повышении сложности они разрушаются
Не изящно разрушаются
Они полностью разрушаются
LLM не масштабируют рассуждения, как это делают люди
Они думают БОЛЬШЕ до определенного момента...
Потом они сдаются, даже когда у них остается много вычислительных ресурсов
Даже получив алгоритм, LLM все равно не справляются с заданием
Выполнение ≠ понимание
Это не «отсутствие креативности» - это неспособность к базовой логике
Модели «переосмысливают» ЛЕГКИЕ задачи - ищут НЕПРАВИЛЬНЫЕ ответы после того, как нашли ПРАВИЛЬНЫЙ
А когда проблемы становятся сложнее... они думают меньше
Потраченные впустую вычисления на одном конце - пораженчество на другом
Apple считает, что эти модели НЕ рассуждают
Они - супердорогие программы для сопоставления шаблонов, которые ломаются, как только мы выходим за рамки их обучающего распределения
https://machinelearning.apple.com/research/illusion-of-thinking
Apple Machine Learning Research
The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity
Recent generations of frontier language models have introduced Large Reasoning Models (LRMs) that generate detailed thinking processes…
Любую классическую двоичную функцию можно превратить в квантовый оракул — универсальный инструмент для алгоритмов вроде Гровера или Шора
Проблема обратимости
Классические функции вида f : {0, 1}^m → {0, 1}^n часто необратимы: зная результат, нельзя восстановить вход
Но квантовые операции обязаны быть обратимыми (унитарными)
Решение — добавить n кубитов для сохранения входных данных
Оракул действует на (m + n) кубитов по формуле: Uf∣x⟩∣y⟩ = ∣x⟩∣y ⊕ f(x)⟩, где ⊕ — побитовое сложение по модулю 2
Так вход x сохраняется, а выход f(x) «записывается» в регистр y, делая операцию обратимой
Пример: функция AND
Для f(x1, x2) = x1 ∧ x2 оракул реализуется через гейт Тоффоли (CCNOT): входные кубиты: ∣x1⟩, ∣x2⟩, ∣y⟩; выход: ∣x1⟩, ∣x2⟩, ∣y ⊕ (x1 ∧ x2)⟩
Такой подход работает даже для неинъективных функций
Например, для f(x) = 0 оракул просто копирует вход в выход
Автоматический синтез
Современные инструменты (например, Qiskit) автоматически преобразуют классические функции в квантовые схемы
Алгоритмы:
• расширение функции: добавляют вспомогательные кубиты для обеспечения биективности
• минимизация кубитов: используют оптимизацию на основе ESOP-форм или Toffoli-гейтов
Например, функция SHA-3 хеширования превращается в оракул с 512 входными и 256 выходными кубитами, сохраняя обратимость через дополнительные регистры
Сложности и оптимизации
Размер схемы: для m-входной функции требуется O(2^m) гейтов в худшем случае
Но для структурных функций (например, арифметических) сложность снижается до полиномиальной
Обработка констант: Если f(x) = c, оракул реализуется через условные фазовые сдвиги
Практика: алгоритм Гровера
В поиске элемента в неупорядоченной базе оракул помечает решение инверсией фазы
Например, для поиска x, где f(x) = 1, оракул действует как: Uf∣x⟩ = (−1)^{f(x)}∣x⟩
Это позволяет усилить амплитуду целевого состояния за O(N) итераций
Итог: Любая функция, даже необратимая, становится квантовым оракулом через добавление кубитов
Это открывает путь для гибридных алгоритмов, где классическая логика интегрируется в квантовые схемы
ML помогает в создании теории о самом себе на профессиональном уровне
Исследователи Google DeepMind написали статью о том, где заканчиваются возможности ML промптинга, объясняя, почему некоторые адаптации возможны через промпты, а другие требуют изменения весов модели
В приложении у них был черновик - несколько страниц набросков математических доказательств
Обычно написание таких набросков в полноценную статью занимает недели работы
Один из авторов скопировал эти наброски в Gemini и написал простой промпт: "Сделай это более точным, докажи все утверждения, создай самостоятельную научную статью"
За один запрос он получил готовую 9-страничную статью с математическими доказательствами
Статья оказалась математически корректной
Все доказательства работают
Качество на уровне научного журнала
Один из авторов Google DeepMind, говорит, что это может быть их последняя статья, написанная без помощи ML
Скорость работы изменилась радикально:
Раньше: идея → месяцы работы → статья
Сейчас: идея → один промпт → готовая статья
ИИ понял математическую суть, развернул доказательства, создал связную логику
Справился с продвинутой математикой (байесовская статистика, теория алгоритмов)
arXiv.org
Understanding Prompt Tuning and In-Context Learning via Meta-Learning
Prompting is one of the main ways to adapt a pretrained model to target tasks. Besides manually constructing prompts, many prompt optimization methods have been proposed in the literature. Method...
❤1🤔1
В Беркли элита математического сообщества тщетно пыталась "переиграть" ИИ
Читайте полную историю о том, как
30 гениев столкнулись с будущим науки
"Я не был готов сражаться с таким ML
Это пугает" — признался Кен Оно (один из ведущих математиков планеты из Университета Вирджинии, который был одним из лидеров и судей этой секретной встречи
«Это была встреча с инопланетным разумом» — прокомментировал результаты Джек Кларк (сооснователь и Head of Policy компании Anthropic, бывший Policy Director OpenAI)
Главная интрига:
• 30 математиков собрались тайно (под подписку о неразглашении!)
• задача: придумать задачи, которые ML не решит
ML o4-mini не просто решал сложнейшие задачи — он делал это с "наглостью", комментируя: "Ссылки не нужны, потому что это загадочное число было вычислено мной!"
За 10 минут бот справился с задачей уровня PhD, на которую у человека ушли бы недели. Сначала изучил литературу, потом решил "игрушечную" версию для тренировки, а затем блестяще решил основную проблему
$7.500 за каждую задачу, которую ML не сможет решить
Из сотен попыток удалось "обмануть" бота лишь 10 раз...
Вердикт экспертов: "Это то, что делал бы очень, очень хороший аспирант — даже больше"
Особое мнение:
"Вспомните, как в 2020 году все поражались, что модель GPT-3 могла (не всегда и с ошибками) выполнять сложение трехзначных чисел
А теперь представьте, где мы будем через несколько лет …"
Вы по-прежнему думаете, что перед нами стохастический попугай?
А готовы ли вы к миру, где ML превосходит лучших математиков человечества?
Читайте полную историю о том, как
30 гениев столкнулись с будущим науки
Scientific American
Inside the Secret Meeting Where Mathematicians Struggled to Outsmart AI
The world's leading mathematicians were stunned by how adept artificial intelligence is at doing their jobs
Пекинская академия выпустила RoboBrain 2.0, вот её характеристики:
Модель 7B и будущая 32B распространяется под лицензией Apache 2.0
Вскоре ожидается выпуск более мощной версии с 32В параметрами
RoboBrain 2.0 обрабатывает несколько изображений, длинные видеоролики и визуальные данные высокого разрешения, что делает её универсальной для сложных задач
Модель способна выполнять пространственный анализ, например, точное определение объектов и их границ и временное прогнозирование (предсказание траекторий движения), что критично для робототехники
RoboBrain 2.0 поддерживает создание и обновление структурированной памяти сцены в реальном времени, что позволяет роботам эффективно взаимодействовать с окружающей средой
Реальный вызов ML — не его возможности, а скорость развития
Через 3-10 лет ML сможет выполнять все задачи, доступные человеку
Если мозг — биологический компьютер, то цифровой компьютер теоретически может делать то же самое, но быстрее.
Что будет означать быть человеком, когда машины смогут делать всю работу человека?
Это вопрос не занятости, а о смысле человеческого существования
Используя ML, наблюдая за ним можно получить интуитивное представление на что оно способно
Истинное понимание возможностей ML приходит только через практическое взаимодействие с технологией
В ближайшие 1-3 года это интуитивное понимание станет массовым
Среди ключевых проблем ML — способность к обману — умение притворяться тем, кем он не является
Это принципиально новые вызовы
Для чего человечество хочет использовать ML?
Ускорение экономики, научных исследований, повышение темпов прогресса — все это возможно, но требует осознанного выбора целей
ML кардинально изменит жизнь независимо от того, готовы кожаные мешки к этому или нет
Это не вопрос "если", а вопрос "когда" и "как"
ML одновременно величайшая проблема и величайшая возможность человечества
Исход зависит от того, насколько осознан подход к формированию этого будущего
👍1
At WWDC Apple introduced a new generation of LLMs developed to enhance the Apple Intelligence features
Also introduced the new Foundation Models framework, which gives app developers direct access to the on-device foundation language model
Apple Machine Learning Research
Updates to Apple's On-Device and Server Foundation Language Models
With Apple Intelligence, we're integrating powerful generative AI right into the apps and experiences people use every day, all while…
Улучшение классификации ранга эллиптических кривых
Эллиптические кривые — это особые математические объекты, которые помогают решать сложные задачи в криптографии и теории чисел
У каждой такой кривой есть "ранг" — число, которое показывает, сколько у неё базовых решений
Проблема в том, что вычислить этот ранг очень сложно. Математики используют специальные приближённые методы — суммы Местре-Нагао
Но они работают не очень точно
Исследователи придумали два новых способа улучшить эти вычисления
Они используют машинное обучение и более сложные математические формулы
Результат — намного точнее определяем ранг кривых
Это важно для криптографии и защиты данных
https://arxiv.org/abs/2506.07967
arXiv.org
Improving elliptic curve rank classification using multi-value and...
Determining the rank of an elliptic curve E/Q remains a central challenge in number theory. Heuristics such as Mestre--Nagao sums are widely used to estimate ranks, but there is considerable room...
Genspark запустили свой ML- браузер
А Perplexity так и не запустили свой Comet
Это не просто браузер, а целый набор ML-инструментов:
ML Browser с блокировкой рекламы
ML Secretary (секретарь)
ML Personal Calls
ML Download Agent
ML Drive, Sheets, Slides,Super Agent
Они делают ставку на скорость и отсутствие рекламы, что противоположно подходу Perplexity
Это полностью меняет конкуренцию:
Теперь это не "поисковик vs браузер", а "браузер vs браузер" с принципиально разными подходами
Perplexity Comet: Персонализация через слежку + реклама
Genspark Browser: Скорость + блокировка рекламы + полная агентность.
Genspark может реально удивить рынок
Если они действительно сделают молниеносно быстрый браузер с мощными ML-агентами БЕЗ рекламы, это может стать серьезной альтернативой не только Perplexity, но и Chrome
При такой скорости разработки могут обогнать более крупных конкурентов за счет agility
Другой проект компании, созданный бывшими руководителями Baidu Эриком Цзингом и Кеем Чжу тут
www.genspark.ai
Download Genspark Browser
Experience the future of web browsing with AI-powered intelligence, uncompromising privacy, and lightning-fast performance.
StableMTL: многозадачное обучение с диффузионными моделями
Обычно для ML на нескольких задачах нужно разметить огромное количество данных для каждой задачи
Это дорого и долго
Исследователи предложили использовать диффузионные модели (те же, что создают картинки из текста) для решения этой проблемы
Их метод позволяет обучать ML даже на частично размеченных синтетических данных
Фишка в том, что модель может работать в "zero-shot" режиме — выполнять задачи, на которых её специально не обучали
Это работает за счёт мощной способности диффузионных моделей к обобщению
Результат — можно создавать ML для сложных задач с гораздо меньшими затратами на данные
https://arxiv.org/abs/2506.08013
arXiv.org
StableMTL: Repurposing Latent Diffusion Models for Multi-Task...
Multi-task learning for dense prediction is limited by the need for extensive annotation for every task, though recent works have explored training with partial task labels. Leveraging the...
GPT-4 и o3 уже умнее идиота в десятках задач, а ближайшие «оценки» обещают агентам написать нерешённое уравнение, а роботам — построить для себя новый завод
ML агенты уже пишут код, скоро будут делать научные открытия, и роботы выйдут в реальный мир
Начался цикл рекурсивного самосовершенствования ML — ML помогает создавать лучший ML
До превращения экспоненты развития ML в вертикаль, остались месяцы
Один запрос к ChatGPT сейчас потребляет столько же энергии, сколько духовка за секунду
Скоро это будет сильно дешевле
Если стоимость «мозга» сведётся к цене киловатт-часа, скорость научного взлёта будет измеряться не годами, а неделями: «десятилетие исследований за месяц» — не метафора, а дорожная карта
Малейший баг в ценностях, умноженный на сотни миллионов пользователей, превращается в глобальный провал
Cначала — решить проблему выравнивания, потом — раздача сверхразума как Wi-Fi
Эссе даёт шанс увидеть кривую экспоненты до того, как она станет вертикальной
Полный текст здесь
Прочтите, пока сингулярность нежно шепчет, а не оглушает, как взрыв при извержении вулкана Кракатау в 1883 году (в эпицентре было немыслимых 310 децибел, при болевом пороге для человека около 130 децибел и звуке рядом с реактивным двигателем – примерно 150 децибел)
Sam Altman
The Gentle Singularity
We are past the event horizon; the takeoff has started. Humanity is close to building digital superintelligence, and at least so far it’s much less weird than it seems like it should be.
Robots...
Robots...
StableMTL: многозадачное обучение с диффузионными моделями
Обычно для ML на нескольких задачах нужно разметить огромное количество данных для каждой задачи
Это дорого и долго
Исследователи предложили использовать диффузионные модели (те же, что создают картинки из текста) для решения этой проблемы
Их метод позволяет обучать ML даже на частично размеченных синтетических данных
Фишка в том, что модель может работать в "zero-shot" режиме — выполнять задачи, на которых её специально не обучали
Это работает за счёт мощной способности диффузионных моделей к обобщению
Результат — можно создавать ML для сложных задач с гораздо меньшими затратами на данные
https://arxiv.org/abs/2506.08013
arXiv.org
StableMTL: Repurposing Latent Diffusion Models for Multi-Task...
Multi-task learning for dense prediction is limited by the need for extensive annotation for every task, though recent works have explored training with partial task labels. Leveraging the...
$15.000.000.000 в Scale AI (49 % доли в компании)
Эта компания занимается разметкой данных, её клиентами являются все крупные ML-компании
Новая исследовательская лаборатория для разработки суперинтеллекта (ASI), который должен превосходить человеческие когнитивные способности, из 50 специалистов для работы над этим амбициозным проектом, включая
Scale AI, Google DeepMind и Sesame
Где заканчивается разум и начинается мир — статья Энди Кларка
Наиболее примечательным является именно тезис расширенного познания, поскольку он лучше всего обоснован и выступает фундаментом для последующих расширений
Согласно этому тезису, внешние инструменты и артефакты могут быть легитимной частью когнитивной системы субъекта
То есть, познание – это не только то, что происходит внутри черепной коробки субъекта
В пользу этого приводится два базовых аргумента
Сначала идёт негативный довод, указывающий на произвольность границы «черепа и кожи», в которую обычно помещают познание
Из того, что нам кажется, что мы думаем исключительно своей головой, не следует, что мышление исчерпывается только процессами в голове
В пользу интракраниализма (представления о том, что познание ограничено черепной коробкой) нет сногсшибательного аргумента, позволявшего бы раз и навсегда закрыть вопрос
Есть некоторые интересные рассуждения прагматического характера, но и с ними, что называется, не всё так однозначно
В сухом остатке известна генеалогия этого воззрения, объясняющая, почему оно было вшито в когнитивную науку на старте
Если кратко, то во всём виноват Декарт со своим дуализмом (на самом деле триализмом )
Из забавного: разбирая картезианские посылки когнитивных наук, Майкл Уилер по сути своей видит в тех, кто им противостоит, интуитивных хайдеггерианцев
Видимо, иногда «4E» — это и есть то, что бытие хочет услышать в ответ на свой зов
Однако есть и позитивный довод
Кларк предлагает представить Отто, страдающего Альцгеймером, который пользуется блокнотом, чтобы «запоминать» события
Если внешний артефакт исполняет ту же функцию, что и естественная когнитивная способность, то на каком основании мы говорим, что артефакт не может быть частью когнитивной системы субъекта?
Кларк считает, что после отвержения догмы о черепе и коже, оснований нет и по принципу паритета внешние артефакты могут быть частью когнитивной системы
Нетрудно догадаться, что суровой критике подверглись и аргументы Кларка, и сам тезис расширенного познания
Фред Адамс и Кен Айзава, среди прочего, критиковали расширенное познание за потенциальную избыточность для науки
Они даже ставили на то, что «наука о познании будет походить на науку о физических, биологических и химических процессах»
Психологи, помимо полемики о теоретической значимости тезисов расширенного, распределенного и прочего внечерепного познания, они указали на эмпирический аналог этих тезисов в виде исследований трансактивной и совместной памяти
Ставка Адамса и Айзавы не то, что не сыграла, а оказалась заведомо не самой удачной
Чем показателен этот сюжет?
Так случается, что иногда в философской дискуссии звучит сакраментальный вопрос, призванный спустить всех с небес на землю: «А как же надои?»
И по иронии судьбы «надои» иногда действительно предъявляются
Другое дело, что в этот же самый момент становится понятно, что суть фундаментальных разногласий не сводится к выяснению того, можно ли теорию как-то прагматически приспособить или даже эмпирически применить