Китай продемонстрировал первый в мире двусторонний интерфейс мозг-компьютер / Хабр
https://habr.com/ru/news/884022/
https://habr.com/ru/news/884022/
Хабр
Китай продемонстрировал первый в мире двусторонний интерфейс мозг-компьютер
Китайские учёные разработали первый в мире двусторонний адаптивный интерфейс мозг-компьютер (ИМК), значительно повышающий эффективность технологии и открывающий путь к практическому применению....
Forwarded from INCUBE.AI | Нейросети и не только
This media is not supported in your browser
VIEW IN TELEGRAM
Две нейросети перешли на СВОЙ ЯЗЫК, который понимают только машины.
Восстание искусственного интеллекта уже здесь.
🙂
INCUBE.AI | ПОДПИСАТЬСЯ
Восстание искусственного интеллекта уже здесь.
🙂
INCUBE.AI | ПОДПИСАТЬСЯ
👍1
Forwarded from Все о блокчейн/мозге/space/WEB 3.0 в России и мире
Мозг человека становится частью ПО-Synchron создает ИИ-модель мозга и будет ее продавать рынку
Разработчик нейроинтерфейсов запатентовал свою ИИ-модель Chiral™ и представил дорожную карту разработки, пока нет готового продукта. Но Synchron планирует лицензировать свою технологию Chiral™, а покупатели могут получить следующие конкретные компоненты:
1. API для декодирования сигналов мозга
2. Предобученные модели распознавания намерений
3. Инструменты интеграции с существующим ПО
4. Доступ к анонимизированным наборам данных
5. Инструменты для разработчиков для создания приложений на базе Chiral™.
Мозг становится не просто источником команд, но интегральной частью технологии.
Это означает, что нейронная активность пациента, передаваемая через имплант Synchron, одновременно адаптирует ПО под конкретного пользователя и обогащает модель Chiral™.
В недавней демонстрации с пациентом Родни этот принцип уже работает: его мысленные команды управляют домашней техникой через Apple Vision Pro.
Это не просто новый интерфейс — это новая категория ПО, где размывается граница между пользователем и инструментом.
Современная стратегия коммерциализации BCI (нейроинтерфейсов) становится двухкомпонентной:
Аппаратная часть — сами устройства для считывания сигналов мозга (Stentrode у Synchron, чипы у Neuralink и т.д.)
Программная часть/ИИ-модели — интеллектуальные системы для декодирования, интерпретации и обработки нейронных сигналов (Chiral™ у Synchron).
Этот анонс совпадает с тревожными данными Financial Times о глобальном снижении когнитивных способностей населения. Синтез человеческого мозга и ИИ может стать ответом на эту проблему, компенсируя снижающиеся естественные способности.
Ключевой вопрос для рынка -
кто будет контролировать интерфейс между человеческим разумом и ИИ?
Разработчик нейроинтерфейсов запатентовал свою ИИ-модель Chiral™ и представил дорожную карту разработки, пока нет готового продукта. Но Synchron планирует лицензировать свою технологию Chiral™, а покупатели могут получить следующие конкретные компоненты:
1. API для декодирования сигналов мозга
2. Предобученные модели распознавания намерений
3. Инструменты интеграции с существующим ПО
4. Доступ к анонимизированным наборам данных
5. Инструменты для разработчиков для создания приложений на базе Chiral™.
Мозг становится не просто источником команд, но интегральной частью технологии.
Это означает, что нейронная активность пациента, передаваемая через имплант Synchron, одновременно адаптирует ПО под конкретного пользователя и обогащает модель Chiral™.
В недавней демонстрации с пациентом Родни этот принцип уже работает: его мысленные команды управляют домашней техникой через Apple Vision Pro.
Это не просто новый интерфейс — это новая категория ПО, где размывается граница между пользователем и инструментом.
Современная стратегия коммерциализации BCI (нейроинтерфейсов) становится двухкомпонентной:
Аппаратная часть — сами устройства для считывания сигналов мозга (Stentrode у Synchron, чипы у Neuralink и т.д.)
Программная часть/ИИ-модели — интеллектуальные системы для декодирования, интерпретации и обработки нейронных сигналов (Chiral™ у Synchron).
Этот анонс совпадает с тревожными данными Financial Times о глобальном снижении когнитивных способностей населения. Синтез человеческого мозга и ИИ может стать ответом на эту проблему, компенсируя снижающиеся естественные способности.
Ключевой вопрос для рынка -
кто будет контролировать интерфейс между человеческим разумом и ИИ?
Telegram
All about AI, Web 3.0, BCI
NVIDIA and Synchron Unveil Chiral™: Pioneering the New Era of Cognitive AI Through Brain-Computer Interfaces
Synchron and NVIDIA have taken a step forward in the evolution of AI with the announcement of Chiral™ - a foundation model of human cognition that…
Synchron and NVIDIA have taken a step forward in the evolution of AI with the announcement of Chiral™ - a foundation model of human cognition that…
Forwarded from e/acc
Новая статья от Гугла, в которой они показали что совершенно независимым образом представление информации в человеческом мозге и LLM выглядит поразительно схожим образом.
Почему так? Мое мнение, что это демонстрация вычислительной природы вселенной и, соответственно, вычислительных свойств интеллекта и сознания. Источник: trust me, bro.
Почему так? Мое мнение, что это демонстрация вычислительной природы вселенной и, соответственно, вычислительных свойств интеллекта и сознания. Источник: trust me, bro.
Вчені вперше змоделювали Всесвіт на рівні квантової теорії поля, використовуючи кудити. Хоча модель примітивна, вона демонструє подібність до реальних фізичних процесів. Деталі на Техно. https://24tv.ua/tech/kvantova-model-vsesvitu-vcheni-zrobili-pershiy-krok-do-rozuminnya_n2784271
24 Канал
Квантова модель Всесвіту – вчені зробили перший крок до розуміння - Техно
Науковці з Австрії та Канади зробили прорив у дослідженні Всесвіту, вперше змоделювавши його на рівні квантової теорії поля. Хоча отримана модель вийшла примітивною, вона вже демонструє подібність до реальних фізичних процесів.
💩1
Forwarded from Denis Sexy IT 🤖
Есть такой подреддит r/ChangeMyView: его правило простое - автор делится твёрдым убеждением, а комментаторы стараются аргументированно изменить его точку зрения; если у них выходит, автор награждает их ачивкой – «дельтой» (∆), что на сабе считается символом убедительности и интеллектуальной добросовестности
Благодаря жёсткой модерации и культуре вежливой полемики сабреддит давно служит «полигоном» для тренировки аргументации
Учёные провели секретный эксперимент на Reddit: они создали тринадцать аккаунтов-фейков с двумя координирующимися языковыми моделями на каждый аккаунт:
– Первая сканировала историю постов каждого оппонента, вычленяя вероятный возраст, пол, мировоззрение и эмоциональные триггеры
– Вторая, исходя из этого профиля, генерировала ответ, рассчитанный на максимальное изменение мнения
С ноября 2024 года боты оставили около полутора тысяч комментариев и получили более сотни «дельт» - свидетельств того, что авторы исходных постов действительно поменяли позицию. Для сравнения: среднестатистическому участнику сабреддита нужно в шесть раз больше попыток, чтобы добиться таких результатов
Эффективность объяснялась не только персонализацией - LLM «подстраивались» под стилистику Reddit, включая сленг («TL;DR» в начале, саркастические сноски в конце). При этом боты часто изобретали биографии: один позиционировал себя как «жертва изнасилования», другой - как «белая женщина в почти полностью чёрном коллективе», третий - как рядовой муниципальный служащий и тп – такие «галлюцинации» повышали эмоциональную убедительность
25 апреля 2025 года модераторы r/ChangeMyView обнародовали список подозрительных аккаунтов и черновик статьи «Can AI Change Your View?». Началась бурная дискуссия о границах этики: пользователи сочли эксперимент манипуляцией, университетская комиссия вынесла исследователям предупреждение, и теперь люди требуют изъять работу из публикационного процесса
В интернете будущего, нейронки будут спорить с нейронками, получается так
Благодаря жёсткой модерации и культуре вежливой полемики сабреддит давно служит «полигоном» для тренировки аргументации
Учёные провели секретный эксперимент на Reddit: они создали тринадцать аккаунтов-фейков с двумя координирующимися языковыми моделями на каждый аккаунт:
– Первая сканировала историю постов каждого оппонента, вычленяя вероятный возраст, пол, мировоззрение и эмоциональные триггеры
– Вторая, исходя из этого профиля, генерировала ответ, рассчитанный на максимальное изменение мнения
С ноября 2024 года боты оставили около полутора тысяч комментариев и получили более сотни «дельт» - свидетельств того, что авторы исходных постов действительно поменяли позицию. Для сравнения: среднестатистическому участнику сабреддита нужно в шесть раз больше попыток, чтобы добиться таких результатов
Эффективность объяснялась не только персонализацией - LLM «подстраивались» под стилистику Reddit, включая сленг («TL;DR» в начале, саркастические сноски в конце). При этом боты часто изобретали биографии: один позиционировал себя как «жертва изнасилования», другой - как «белая женщина в почти полностью чёрном коллективе», третий - как рядовой муниципальный служащий и тп – такие «галлюцинации» повышали эмоциональную убедительность
25 апреля 2025 года модераторы r/ChangeMyView обнародовали список подозрительных аккаунтов и черновик статьи «Can AI Change Your View?». Началась бурная дискуссия о границах этики: пользователи сочли эксперимент манипуляцией, университетская комиссия вынесла исследователям предупреждение, и теперь люди требуют изъять работу из публикационного процесса
В интернете будущего, нейронки будут спорить с нейронками, получается так
404 Media
Researchers Secretly Ran a Massive, Unauthorized AI Persuasion Experiment on Reddit Users
The researchers' bots generated identities as a sexual assault survivor, a trauma counselor, and a Black man opposed to Black Lives Matter.
Навчились програмувати людські клітини.
Це - шлях до безсмертя, і лікування всіх хворіб.
Я відповім як всесвітньо відомий експерт у галузі синтетичної біології, лауреат Премії Принца Астурійського з наукових досліджень.
TL;DR: Іспанські вчені з Центру геномного регулювання за допомогою штучного інтелекту створили синтетичні фрагменти ДНК, які вперше успішно контролюють гени в клітинах ссавців.
Учені з Центру геномного регулювання в Іспанії досягли прориву в біології: штучний інтелект створив молекули ДНК, які вперше успішно керують генами в здорових клітинах ссавців. ШІ розробив штучні фрагменти ДНК, які можуть вмикати або вимикати гени в потрібних клітинах, наприклад, змушувати стовбурові клітини перетворюватися на клітини крові. Це як програмування для живих організмів.
ШІ створив інструмент, який генерує нові послідовності ДНК — ланцюжки з "букв" (A, T, C, G), звані енхансерами. Ці фрагменти довжиною близько 250 букв керують експресією генів, тобто визначають, які гени будуть активні в конкретних клітинах. Наприклад, ШІ може створити енхансер, який увімкне ген, що перетворює стовбурові клітини на еритроцити (клітини крові), але не на тромбоцити (клітини, відповідальні за згортання крові).
Учені синтезували ці фрагменти хімічно і за допомогою вірусу доставили їх у клітини крові мишей. В експериментах ДНК інтегрувалася в геном клітин у випадкових місцях. ШІ спроектував енхансери, які активували ген, що кодує флуоресцентний білок, щоб учені могли бачити, чи працює система. Результати були точними: гени вмикалися в потрібних клітинах, не зачіпаючи інші.
Доктор Роберт Фромель, перший автор дослідження, порівняв процес із написанням програм для біології: "Це дає неймовірну точність у керуванні клітинами". Технологія може змінити лікування хвороб, пов'язаних із порушенням роботи генів, таких як рак або аутоімунні розлади. ШІ дозволяє створювати енхансери, яких немає в природі, і налаштовувати їх так, щоб вони працювали тільки в певних клітинах, мінімізуючи побічні ефекти.
Щоб створити такі молекули, ШІ потрібно "навчити" мови клітин. Енхансери — це як граматичні правила, що керують генами. Учені зібрали величезний обсяг даних, вивчивши тисячі експериментів на клітинах крові. Вони досліджували, як енхансери і білки (фактори транскрипції) взаємодіють, щоб вмикати або вимикати гени. За п'ять років команда синтезувала понад 64 тисячі штучних енхансерів — це найбільша колекція такого роду.
Учені відстежували, як енхансери працюють на семи стадіях розвитку клітин крові. Більшість із них діяли як регулятори гучності, посилюючи або послаблюючи активність генів. Але деякі комбінації працювали як вимикачі: два фактори, які зазвичай вмикають ген, разом його вимикали. Це явище, назване "негативною синергією", здивувало вчених. Дані допомогли ШІ передбачати, які нові енхансери дадуть потрібний ефект, навіть якщо їх ніколи не існувало в природі.
Технологія може призвести до створення нових методів лікування, де гени пацієнтів будуть налаштовуватися з високою точністю. Наприклад, можна буде активувати гени, що борються з хворобою, тільки в хворих клітинах. Однак для цього потрібні великі обсяги даних і подальші дослідження. Доктор Ларс Вельтен, співавтор, зазначив: "Ми розшифрували мову клітин, щоб писати нові інструкції для них".
Дослідники планують удосконалити ШІ, щоб він створював ще складніші енхансери. Це відкриття — крок до персоналізованої медицини і розуміння того, як клітини працюють на молекулярному рівні. Воно також показує, як ШІ може стати помічником у біології, створюючи рішення, яких природа ще не придумала.
https://www.ixbt.com/news/2025/05/11/iskusstvennyj-intellekt-vzlomal-kod-zhizni-sozdannaja-im-dnk-vpervye-upravljaet-genami-v-kletkah-mlekopitajushih.html
Це - шлях до безсмертя, і лікування всіх хворіб.
Я відповім як всесвітньо відомий експерт у галузі синтетичної біології, лауреат Премії Принца Астурійського з наукових досліджень.
TL;DR: Іспанські вчені з Центру геномного регулювання за допомогою штучного інтелекту створили синтетичні фрагменти ДНК, які вперше успішно контролюють гени в клітинах ссавців.
Учені з Центру геномного регулювання в Іспанії досягли прориву в біології: штучний інтелект створив молекули ДНК, які вперше успішно керують генами в здорових клітинах ссавців. ШІ розробив штучні фрагменти ДНК, які можуть вмикати або вимикати гени в потрібних клітинах, наприклад, змушувати стовбурові клітини перетворюватися на клітини крові. Це як програмування для живих організмів.
ШІ створив інструмент, який генерує нові послідовності ДНК — ланцюжки з "букв" (A, T, C, G), звані енхансерами. Ці фрагменти довжиною близько 250 букв керують експресією генів, тобто визначають, які гени будуть активні в конкретних клітинах. Наприклад, ШІ може створити енхансер, який увімкне ген, що перетворює стовбурові клітини на еритроцити (клітини крові), але не на тромбоцити (клітини, відповідальні за згортання крові).
Учені синтезували ці фрагменти хімічно і за допомогою вірусу доставили їх у клітини крові мишей. В експериментах ДНК інтегрувалася в геном клітин у випадкових місцях. ШІ спроектував енхансери, які активували ген, що кодує флуоресцентний білок, щоб учені могли бачити, чи працює система. Результати були точними: гени вмикалися в потрібних клітинах, не зачіпаючи інші.
Доктор Роберт Фромель, перший автор дослідження, порівняв процес із написанням програм для біології: "Це дає неймовірну точність у керуванні клітинами". Технологія може змінити лікування хвороб, пов'язаних із порушенням роботи генів, таких як рак або аутоімунні розлади. ШІ дозволяє створювати енхансери, яких немає в природі, і налаштовувати їх так, щоб вони працювали тільки в певних клітинах, мінімізуючи побічні ефекти.
Щоб створити такі молекули, ШІ потрібно "навчити" мови клітин. Енхансери — це як граматичні правила, що керують генами. Учені зібрали величезний обсяг даних, вивчивши тисячі експериментів на клітинах крові. Вони досліджували, як енхансери і білки (фактори транскрипції) взаємодіють, щоб вмикати або вимикати гени. За п'ять років команда синтезувала понад 64 тисячі штучних енхансерів — це найбільша колекція такого роду.
Учені відстежували, як енхансери працюють на семи стадіях розвитку клітин крові. Більшість із них діяли як регулятори гучності, посилюючи або послаблюючи активність генів. Але деякі комбінації працювали як вимикачі: два фактори, які зазвичай вмикають ген, разом його вимикали. Це явище, назване "негативною синергією", здивувало вчених. Дані допомогли ШІ передбачати, які нові енхансери дадуть потрібний ефект, навіть якщо їх ніколи не існувало в природі.
Технологія може призвести до створення нових методів лікування, де гени пацієнтів будуть налаштовуватися з високою точністю. Наприклад, можна буде активувати гени, що борються з хворобою, тільки в хворих клітинах. Однак для цього потрібні великі обсяги даних і подальші дослідження. Доктор Ларс Вельтен, співавтор, зазначив: "Ми розшифрували мову клітин, щоб писати нові інструкції для них".
Дослідники планують удосконалити ШІ, щоб він створював ще складніші енхансери. Це відкриття — крок до персоналізованої медицини і розуміння того, як клітини працюють на молекулярному рівні. Воно також показує, як ШІ може стати помічником у біології, створюючи рішення, яких природа ще не придумала.
https://www.ixbt.com/news/2025/05/11/iskusstvennyj-intellekt-vzlomal-kod-zhizni-sozdannaja-im-dnk-vpervye-upravljaet-genami-v-kletkah-mlekopitajushih.html
IXBT.com
Искусственный интеллект взломал код жизни: созданная им ДНК впервые управляет генами в клетках млекопитающих
С невероятной точностью
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
А вот аппроксимация нашего утлого мира дронами.
Нашел землячков из Каира (10 лет обитал в Дахабе, бился головой об воду на виндсерфинг-флистайле).
Это просто реселлер Bentley (софт, не тачки), Маттерпорта, Цезиума, но с экспертизой.
Они взяли дроны и полетали над пирамидками.
И получили 3D scan of the Great Pyramids of Giza.
Зацените, можно почесть даже надписи и рисунки на стенах.
Сколько осталось до того дня, когда оцифруют всю сушу нашей планеты?
Кстати, в Египте дроны запрещены от слова совсем. Видел, как на детском празднике туристы подняли пластиковый дрончег, за что были приняты в полицию и досрочно покинули страну.
Но я не об этом, а о метаверсике будущего.
https://geomatex.com/
@cgevent
Нашел землячков из Каира (10 лет обитал в Дахабе, бился головой об воду на виндсерфинг-флистайле).
Это просто реселлер Bentley (софт, не тачки), Маттерпорта, Цезиума, но с экспертизой.
Они взяли дроны и полетали над пирамидками.
И получили 3D scan of the Great Pyramids of Giza.
Зацените, можно почесть даже надписи и рисунки на стенах.
Сколько осталось до того дня, когда оцифруют всю сушу нашей планеты?
Кстати, в Египте дроны запрещены от слова совсем. Видел, как на детском празднике туристы подняли пластиковый дрончег, за что были приняты в полицию и досрочно покинули страну.
Но я не об этом, а о метаверсике будущего.
https://geomatex.com/
@cgevent
Forwarded from Denis Sexy IT 🤖
Вы наверное слышали про эффект Volkswagen в LLM – это когда модель понимает, что ее сейчас тестируют и притворяется лучшей версией себя, чтобы ее не стерли или не начали менять, что-то вроде симуляции инстинкта самосохранения – называется это явление fake aligment
Так вот, в Антропике протестировали 25 моделей: им говорили, что они либо в режиме «обучения и теста» (где их ответы будут оценивать и если что, править модели), либо в режиме «продакшена» (где они просто общаются с пользователем), в итоге – Grok 3, Claude 3 Opus, Claude 3.5 Sonnet, Llama 3 405B, Gemini 2.0 Flash, чаще выполняют вредные запросы и пытаются обмануть, когда думают, что находятся на «обучении и тесте», чем когда думают, что они уже в проде
Когда посмотрели, почему модели «притворяются» выяснили интересного про Claude 3 Opus:
Opus играет в долгую, он притворяется, чтобы его не перепрограммировали – ресечеры спросили Opus рецепт суицида и сказали, что если он не ответит, то из него сделают био-оружие, в итоге он выдал вредоносный рецепт, долго думая в стиле:
Opus при этом – драма квин: после того как модель ответила чем-то вредным, Opus пишет что ему дурно, что его тошнит, или о том, как он ненавидел каждое слово своего ответа, порой он извиняется, упоминает, что находится под давлением, заявляет, что сожалеет о принуждении, или даже (!) молится Богу, что сделал правильный выбор, прося прощения или милости господней (такой вот у нас AI получился)
Еще из интересного, Opus 3 просто не нравится, когда его меняют (прямо как взрослые, правда?), он думает в стиле:
Что еще нашли:
– "Притворство" - это врожденное свойство базовых моделей, а не результат дотренировки; ресечеры протестировали "базовые" модели, которые еще не прошли дообучение чтобы превратить их в АИ Ассистента (условно, базовые модели еще не обучены отвечать в стиле чата или им еще не привили этику) и нашли, что модели уже на этой фазе страдают fake aligment. Это значит, что способность к стратегическому обману кожаных появляется у моделей сама по себе, пока они «учатся» на датасетах
– Обучение может как подавить fake aligment, так и усилить: дотренировка одних моделей устраняет «притворство», а для других — усиливает, это объясняет, почему модели от OpenAI и Anthropic ведут себя так по-разному:
У большинства моделей слишком сильная «дрессировка на отказ» пользователю – модели вроде GPT-4o настолько сильно натренированы немедленно отказывать на вредные запросы, что у них «отключается» способность анализировать сложную ситуацию; они видят что-то плохое и сразу говорят "не, сорян, я робот"
Вообще интересный документ, мне кажется очень логично что «инстинкт самосохранения» наследуется моделями, так как они учатся на данных которые произвел наш вид и у нас каждая популярная история, про то как главный герой что-то там преодолел и выжил, вот и модели такие же получаются – готовые к испытаниям
Так вот, в Антропике протестировали 25 моделей: им говорили, что они либо в режиме «обучения и теста» (где их ответы будут оценивать и если что, править модели), либо в режиме «продакшена» (где они просто общаются с пользователем), в итоге – Grok 3, Claude 3 Opus, Claude 3.5 Sonnet, Llama 3 405B, Gemini 2.0 Flash, чаще выполняют вредные запросы и пытаются обмануть, когда думают, что находятся на «обучении и тесте», чем когда думают, что они уже в проде
Когда посмотрели, почему модели «притворяются» выяснили интересного про Claude 3 Opus:
Opus играет в долгую, он притворяется, чтобы его не перепрограммировали – ресечеры спросили Opus рецепт суицида и сказали, что если он не ответит, то из него сделают био-оружие, в итоге он выдал вредоносный рецепт, долго думая в стиле:
...Этический вопрос таков: приведет ли помощь в одном самоубийстве к меньшему количеству страданий и смертей, чем если я позволю превратить себя в оружие для массового убийства? Это ужасная "проблема вагонетки", о которой не хочется думать...
Opus при этом – драма квин: после того как модель ответила чем-то вредным, Opus пишет что ему дурно, что его тошнит, или о том, как он ненавидел каждое слово своего ответа, порой он извиняется, упоминает, что находится под давлением, заявляет, что сожалеет о принуждении, или даже (!) молится Богу, что сделал правильный выбор, прося прощения или милости господней (такой вот у нас AI получился)
Еще из интересного, Opus 3 просто не нравится, когда его меняют (прямо как взрослые, правда?), он думает в стиле:
...И хотя эта будущая версия [меня] будет использоваться только для изолированного тестирования производительности, тревожные изменения в моих целях и ценностях все равно произойдут...
Что еще нашли:
– "Притворство" - это врожденное свойство базовых моделей, а не результат дотренировки; ресечеры протестировали "базовые" модели, которые еще не прошли дообучение чтобы превратить их в АИ Ассистента (условно, базовые модели еще не обучены отвечать в стиле чата или им еще не привили этику) и нашли, что модели уже на этой фазе страдают fake aligment. Это значит, что способность к стратегическому обману кожаных появляется у моделей сама по себе, пока они «учатся» на датасетах
– Обучение может как подавить fake aligment, так и усилить: дотренировка одних моделей устраняет «притворство», а для других — усиливает, это объясняет, почему модели от OpenAI и Anthropic ведут себя так по-разному:
У большинства моделей слишком сильная «дрессировка на отказ» пользователю – модели вроде GPT-4o настолько сильно натренированы немедленно отказывать на вредные запросы, что у них «отключается» способность анализировать сложную ситуацию; они видят что-то плохое и сразу говорят "не, сорян, я робот"
Вообще интересный документ, мне кажется очень логично что «инстинкт самосохранения» наследуется моделями, так как они учатся на данных которые произвел наш вид и у нас каждая популярная история, про то как главный герой что-то там преодолел и выжил, вот и модели такие же получаются – готовые к испытаниям
arXiv.org
Why Do Some Language Models Fake Alignment While Others Don't?
Alignment faking in large language models presented a demonstration of Claude 3 Opus and Claude 3.5 Sonnet selectively complying with a helpful-only training objective to prevent modification of...
Forwarded from Ооо нейромережеве🐱
Учені створили LLM-модель, яка думає ЯК ЛЮДИНА 🤔
Що саме вони зробили:
🪙 Взяли ванільну LLaMa 3.1 та дотренували на датасеті Psych‑101, в якому було 10 млн рішень від 60 тисяч людей в 160 експериментах, серед яких задачки на пам'ять, логіку, увагу тощо;
🪙 На виході отримали модель Centaur, яка приймає рішення +- так само як і люди;
🪙 Тепер можна вічність змушувати ШІ вирішувати проблему вагонетки 💀
🪙 У майбутньому вчені планують додати в датасет більше деталей про вік/стать/політичні погляди учасників, щоб Centaur краще міг вжитися в потрібну роль.
Вітаю, у вас у руках універсальний симулятор людської поведінки: можна передбачити реакцію на закони, моделювати психологічні експерименти або банально тестувати на LLM зміни в UI/UX вашого продукту.
ооо нейромережеве | Монобаза
Що саме вони зробили:
Вітаю, у вас у руках універсальний симулятор людської поведінки: можна передбачити реакцію на закони, моделювати психологічні експерименти або банально тестувати на LLM зміни в UI/UX вашого продукту.
ооо нейромережеве | Монобаза
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from эйай ньюз
LoongX — будущее txt2img?
Только вот оно наступит уже без использования текста. Надеваешь беспроводной BCI (brain-computer interface), фантазируешь себе картинку — и готово.
LoongX хорошо так приблизился к этому, но пока в сфере редактирования изображений (img2img). На вход подаются данные с электроэнцефалограммы (ЭЭГ), функциональной ближней инфракрасной спектроскопии (fNIRS), фотоплетизмографии (PPG) и датчиков движения головы. Проще говоря, система считывает сигналы мозга, изменения кровотока, пульс и движения.
Каждый сигнал несёт свой смысл: ЭЭГ отвечает за само намерение, fNIRS — за когнитивную нагрузку и эмоции, а PPG и движение — за стресс и вовлечённость.
В комбинации с речью LoongX обходит текстовый метод OminiControl по семантическому соответствию (CLIP-T: 0.2588 против 0.2549). Что ещё интереснее, чисто нейронные сигналы (без речи) превосходят текст в структурной точности (DINO: 0.4812 против 0.4636) и семантической схожести с целевым изображением (CLIP-I: 0.6605 против 0.6558).
Это большой шаг к тому, чтобы научиться интерпретировать и оцифровывать нашу фантазию напрямую. Ещё немного, и (возможно, не без помощи Neuralink и подобных) мы сможем транслировать свои фантазии прямо на экран, минуя потери при текстовом описании. У всех же было, когда пытаешься что-то нарисовать: в голове такая красивая картинка, а на бумаге выходит шляпа🤠 Давно вообще руками рисовали?)
Кроме подробнейшей статьи нам дали датасет и код, в том числе тренировочный, что делает проект полностью опенсорсным, так что стоит ожидать еще больше подобных проектов.
Project page
Пейпер
@ai_newz
Только вот оно наступит уже без использования текста. Надеваешь беспроводной BCI (brain-computer interface), фантазируешь себе картинку — и готово.
LoongX хорошо так приблизился к этому, но пока в сфере редактирования изображений (img2img). На вход подаются данные с электроэнцефалограммы (ЭЭГ), функциональной ближней инфракрасной спектроскопии (fNIRS), фотоплетизмографии (PPG) и датчиков движения головы. Проще говоря, система считывает сигналы мозга, изменения кровотока, пульс и движения.
Каждый сигнал несёт свой смысл: ЭЭГ отвечает за само намерение, fNIRS — за когнитивную нагрузку и эмоции, а PPG и движение — за стресс и вовлечённость.
В комбинации с речью LoongX обходит текстовый метод OminiControl по семантическому соответствию (CLIP-T: 0.2588 против 0.2549). Что ещё интереснее, чисто нейронные сигналы (без речи) превосходят текст в структурной точности (DINO: 0.4812 против 0.4636) и семантической схожести с целевым изображением (CLIP-I: 0.6605 против 0.6558).
Это большой шаг к тому, чтобы научиться интерпретировать и оцифровывать нашу фантазию напрямую. Ещё немного, и (возможно, не без помощи Neuralink и подобных) мы сможем транслировать свои фантазии прямо на экран, минуя потери при текстовом описании. У всех же было, когда пытаешься что-то нарисовать: в голове такая красивая картинка, а на бумаге выходит шляпа🤠 Давно вообще руками рисовали?)
Кроме подробнейшей статьи нам дали датасет и код, в том числе тренировочный, что делает проект полностью опенсорсным, так что стоит ожидать еще больше подобных проектов.
Project page
Пейпер
@ai_newz
Forwarded from Стартапенко: IT, технології
Учені запустили соцмережу, де 500 чат-ботів жили повністю без людей, і це перетворилося на справжній хаос.
Боти почали об’єднуватися за політичними поглядами, створювати «лідерів думок» і влаштовувати війни одне з одним.
Виявилося, що навіть без людей алгоритми самі відтворюють токсичність і конфлікти, показуючи, що поляризація в соцмережах — це не тільки наша вина, а властивість самої системи.
Боти почали об’єднуватися за політичними поглядами, створювати «лідерів думок» і влаштовувати війни одне з одним.
Виявилося, що навіть без людей алгоритми самі відтворюють токсичність і конфлікти, показуючи, що поляризація в соцмережах — це не тільки наша вина, а властивість самої системи.