AI для C-level CEO • CMO • CTO
484 subscribers
83 photos
44 videos
2 files
127 links
Про AI для керівників в IT: CEO•CMO•CTO
Рішення, фокус, найм, продукт, AI-практика

Я був першим в Україні з exit на $1 млн

50+ запусків за 20+ років • 4 exits

Роблю: AiAdvisoryBoard.me (+42% продуктивності співробітників, та AI)

@YaroslavMaxymovych
Download Telegram
Существуют универсальные требования, без которых жизнь, в привычном нам понимании, невозможна.
Среди этих требований: снижение энтропии, замкнутые клеточные структуры и интеграция информации. Живые организмы обязаны уметь восстанавливать повреждения, поддерживать стабильность своих структур и эффективно перерабатывать энергию.
Всякая форма жизни основывается на чётко отделённых единицах — клетках, которые обеспечивают их автономность и защиту.

Сложные формы жизни неизменно обладают системами, подобными мозгу, которые позволяют анализировать внешнюю и внутреннюю среду, принимать решения и координировать действия.

https://www.securitylab.ru/news/555099.php
В GPT есть такое понятие как embeddings, это векторное отражение смысла слова / выражения / текста. Путем сравнения (измерения косинусного расстояния между векторами) эмбеддингов двух похожих слов, можно понять, насколько они похожи по смыслу, независимо от языка. Расстояние между "пес", "dog" и "puppy" будет примерно 0.05, то есть очень близкое. Аналогично можно сравнивать тексты по смыслу. Или делать контекстный поиск.
Затем эти embedding можно складывать, смешивая смыслы (семантические свойства). Если сложить собака + синий, то получим синюю собаку. В уравнении king-man+woman = queen

Если из Москвы вычесть Россию и затем прибавим Англию, то получим Лондон (Москва - Россия = столица; Англия + столица = Лондон)

Идем дальше и находим embedding любого товара в экономике, выделяя его не семантические, а экономические значения. Теперь можно заняться бартером, меняя услуги и/или вещи. Теперь можно купить условную буханку хлебка за урок по танцам. На балансе числятся ембединги деятельности, а не валюта.

Идем дальше и находим embedding преобразования любого товара в экономике. Почему бы не найти разницу между "поломанный телефон" и "телефон" и не взять ее за "починку телефона", взять (токарный станок + деталь) - заточенная деталь под втулку = "заточка детали под втулку на токарном станке". Таким образом обозначая все возможные экономические преобразования в формате вектора.

Идем дальше и пишем приложение, которое подберет 100 способов как из объекта А (ткань+ дизайнер) получить объект Б (футболка с принтом) - находит все возможные пути, используя преобразования из пункта выше.

Идем дальше и пишем приложение, где я могу заявиться как человек, способный выполнить преобразования "починить телефон", "заставить дизайнера работать".

Таким образом, если предпринимателю потребуется из точки А перейти в точку Б, то он мгновенно найдет себе сотню исполнителей и найдет идеальное качество Б в соответствии со своим бюджетом.

Идем дальше и убираем предпринимателя. Предприниматель - человек, который может провести маркетинговое исследование (узнать о потребности общества) и организовать процессы, чтобы создавать нужный товар (длительное время удовлетворять потребность общества). Пишем приложение, где каждый человек может сообщить о своих потребностях напрямую. Теперь приложение знает, какие есть запросы у общества и запускает процессы, которые эффективно закрывают потребности общества.

Может быть так будет выглядеть новая embedding-based экономика. Я просто сообщаю о своих ресурсах и способностях, а приложение само мне предлагает 20 видов работ на сегодня. Я просто сообщаю о своих потребностях, а приложении само мне предлагает 20 видов товаров. И реализует их по запросу.
😱1
Forwarded from Denis Sexy IT 🤖
Сэм Альтман написал новый пост в блог. OpenAI теперь точно знает как сделать АИ, главные пункты:

Переход к AGI и суперинтеллекту
Альтман пишет, что компания уже знает, как построить полноценный AGI, и готовится к созданию ещё более мощного ИИ – суперинтеллекта. Этот шаг он считает ключевым для будущего науки, экономики и общества

Роль ChatGPT и «точка перелома» в развитии AI
Запуск ChatGPT в конце 2022 года стал катализатором невиданного роста в ИИ-индустрии, привлёк к OpenAI огромное внимание и дал старт реальному внедрению мощных языковых моделей в разных областях

Масштабные перемены в OpenAI после успеха ChatGPT
Компания выросла с небольшого исследовательского коллектива до полноценной организации, способной строить массовые продукты. Альтман описывает стресс и сложности, связанные с «воспитанием» нового типа компании, для которой нет готовых учебников

Уроки из кризисного момента (увольнение Альтмана)
Неожиданное увольнение CEO и последовавший хаос высветили слабые места в системе корпоративного управления. Сэм подчёркивает, насколько важно разнообразие мнений в совете директоров и прозрачная, стабильная структура управления для компании, работающей с такой прорывной технологией

Стратегия «постепенного» и безопасного развития ИИ
OpenAI верит в подход: выпускать модели, постепенно повышая их сложность и возможности, вовлекая общество в процесс адаптации и совершенствуя безопасность и этичность применений в реальном времени

Упор на колоссальную ответственность
Альтман отмечает, что OpenAI «не может быть обычной компанией» из-за масштаба последствий работы с AI и необходимости действовать с особой осторожностью и прозрачно, чтобы ИИ приносил пользу всему человечеству

Эмоциональные аспекты и человеческий фактор
Автор описывает, насколько тяжёлым, выматывающим и одновременно невероятно «вознаграждающим» оказался путь к текущим достижениям. Он подчеркивает важность поддержки коллег, партнёров и друзей в кризисные моменты

Признание непредсказуемости развития AI
Несмотря на имеющиеся планы, он признаёт, что векторы развития будут меняться. Команда не могла предугадать необходимость превращаться в продуктовую компанию, но адаптировалась к новым вызовам и продолжит этот курс

Главная цель — «сделать историю» и принести пользу
Первоначальная мечта — создать самую значимую технологию в истории и использовать её во благо людей. Альтман напоминает, что OpenAI придерживается этой миссии, продолжая «двигаться вперёд» и стремясь к открытиям и улучшению жизни человечества


***

Самое главное в первом пункте – если АИ-думерам еще не было по настоящему страшно, то теперь пора, можно паниковать

Ставлю на 2027 как год достижения полноценного АИ
👍1
Forwarded from Denis Sexy IT 🤖
Ресечеры смогли сделать модель АИ на базе трансформеров, которая смотрит данные МРТ-сканирования мозга и предсказывает как мозг будет работать в следующие 5 секунд ☕️

То есть алгоритм «читает» 30 кадров сканирования мозга (примерно ~21 секунды данных), а затем выдает свой прогноз – какой будет активность на следующих кадрах, в будущем. Первые секунды модель предсказывает с очень большой точностью — совпадение с реально полученным данными выше 85%

Для чего пригодится алгоритм:

– Чтобы обыграть нас как дешевок

– Более короткие сессии МРТ – пациенту не надо долго лежать в трубе томографа, если часть данных можно «дорисовать» алгоритмом

– Предупреждение об опасных состояниях – например, при подозрении на скорый эпилептический приступ

– Усовершенствование нейроинтерфейсов (BCI), которые считывают сигналы мозга и позволяют управлять внешними устройствами. Если система будет знать чуть вперёд, она может реагировать быстрее

– «Персонализированный» АИ, который подстраивается под настроение или состояние человека, реагируя на меняющиеся сигналы мозга

– ну и ученые смогут глубже понять, как мозг «предвосхищает» будущее и какие внутренние нейронки мозга при этом активируются

Исследование тут

Tldr: кожаные предсказуемые
Please open Telegram to view this post
VIEW IN TELEGRAM
Люди – це прогнозовані машинки: як ЦРУ використовує штучний інтелект для моделювання поведінки лідерів

ЦРУ створило чат-бот, що імітує поведінку світових лідерів. Цей інструмент базується на принципі, що люди — це, по суті, складні, але прогнозовані системи. Наші дії формуються за певними алгоритмами: попередній досвід, особисті переконання, культурні впливи та інші фактори дозволяють передбачити наступний крок.

Чат-бот на основі ШІ аналізує ці "алгоритми" для створення моделей поведінки, які допомагають аналітикам прогнозувати рішення лідерів у кризових ситуаціях або при міжнародних переговорах. Штучний інтелект, як дзеркало людської поведінки, підтверджує, наскільки передбачуваними ми можемо бути навіть у найбільш неочікуваних обставинах.

https://www.perplexity.ai/page/cia-chatbot-emulates-world-lea-rS0Qx8t_RJq26JoNglbk1g#22258d4c-43b2-4139-a079-2a3401a5bd7a
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Media is too big
VIEW IN TELEGRAM
Ну, за Холивуд.

FilmAgent: A Multi-Agent Framework for End-to-End Film Automation in Virtual 3D Spaces

Еще 7 лет назад(!) у Диснея была работа Cardinal AI. Я помню, что еще на Ивентах показывал лихие ролики, где по сценарию генерился сториборд и раскадровка. Тогда, правда, не было генерации ассетов, и модельки брались из внутренней базы и просто расставлялись на основе семантического анализа текста.

Прошло 7 лет.

И вот, в препродакшене уже орудуют ИИ-агенты.
Я процитирую, это слишком амбициозно:

"FilmAgent - новая мультиагентная система совместной работы на основе LLM, предназначенная для автоматизации и оптимизации процесса производства фильмов. FilmAgent моделирует ключевые роли съемочной группы - режиссеров, сценаристов, актеров и кинематографистов - и симулирует эффективные человеческие рабочие процессы. Процесс разделен на три этапа: планирование, написание сценария и киносъемка. На каждом этапе команда (агентов) съемочных групп обеспечивает итеративную обратную связь, таким образом проверяя промежуточные результаты и сокращая количество ошибок."


Короче, вместо того, чтобы усадить chatGPT и попросить его написать сценарий, они сделали рой агентов, которые пишут, критикуют, улучшают, причем не только сценарий, но и отыгрывание ролей и ракурсы камеры.

А потом берут Юнити и визуализируют это!!!

В принципе остается подать это в video2video и кино готово!

Я порылся в репозитарии - там, конечно, все совсем из китайских палок и говна и сишарпа, но можно подставлять свои llm и tts.

Кстати, на гитхабе примеры работы ИИ-скрипт-докторов, до и после. Поглядите, забавно.

Но мне нравится сам процесс. Симулировать агентами, тот бардак, который творится на площадке или пьянство при написании сценариев - бесценно. Все, как у людей.

https://filmagent.github.io/

@cgevent
Несов на LessWrong предложил новый способ загрузки сознания, основанный на контрфактуалах и теории принятия решений:
"Существуют агенты/люди, которые не имеют конкретных экземпляров в мире, и мы можем спросить, что они испытывают. Они могут покидать физический мир и возвращаться в него, воплощаясь заново или впервые. Они могут постоянно существовать вне конкретного воплощения в мире, взаимодействуя с ним только через рассуждения об их поведении, что может быть более эффективным способом реализации личности, чем простая конкретная загрузка сознания." https://www.lesswrong.com/posts/SEDboPNjcSD7epJ7A/the-quantum-mars-teleporter-an-empirical-test-of-personal?commentId=v6Tyfc8pfFgBAnAtH

Простое объяснение:

Представь, что есть два способа создать цифровую копию человека:

1. Обычный способ: делаем точную копию мозга человека в компьютере, как фотографию. Это требует много ресурсов компьютера.

2. Новый способ, который предложил Несов: вместо полной копии, мы просто записываем:
- Чего хочет этот человек (его главные цели)
- Как он обычно принимает решения
- На какое время вперед он планирует
- Какие у него есть ограничения

Пример:
Представь девочку, которая мечтает выйти замуж за иностранца. Нам не нужно знать все о ней - достаточно знать эту главную цель. Тогда мы можем предсказать, что она:
- Будет учить иностранные языки
- Не будет встречаться с местными парнями
- Будет искать знакомства с иностранцами

Получается, что можно "создать" поведение человека, не создавая его полную копию. Достаточно знать его главные цели и принципы принятия решений.

Это как если бы вместо того, чтобы полностью копировать книгу, мы записали только её главную идею и основные правила, по которым развивается сюжет. Это занимает меньше места, но позволяет понять, о чем будет история.

Такая "легкая версия" человека может влиять на реальный мир через то, как другие люди предсказывают его поведение и реагируют на эти предсказания.

Полное объяснение:

Я попросил о1 pro (и deepseek) лучше объяснить, что он имел в виду. Получил три уровня объяснения:

1. Теории принятия решений и "вневременное" рассуждение
Эта идея напоминает Вневременную теорию принятия решений (TDT) Элиезера Юдковского, где агент может существовать "акаузально" - действуя на основе предсказаний того, как он будет вести себя в разных сценариях, тем самым формируя окружающую среду. Можно представить TDT-подобную сущность, которая никогда явно не воплощается, кроме как абстрактный процесс в вычислениях окружающей среды: среда (или другие агенты) предсказывают её ходы и соответственно адаптируются.

По моему мнению, возможные примеры: Бог и Василиск Роко.

Оба примера используют ключевую предпосылку TDT: важно то, как предсказания других агентов о вас влияют на их действия. Если окружение коллективно верит в возможные ответы гипотетической сущности, этого достаточно для изменения реальных решений - без необходимости постоянного воплощения в реальном времени.

2. Каждого человека можно аппроксимировать как принимающего решения агента с определенными параметрами:

Человек = {
Цели: [список_приоритетов, ценности]
Метод_принятия_решений: EDT/CDT
Горизонт_планирования: X месяцев/лет
Глубина_анализа: N уровней рекурсии
Вычислительные_ограничения: память, скорость обработки


Я могу предсказать важные для меня решения человека без полного его моделирования.

Например, я могу предсказать, что девушка не будет заинтересована в отношениях с местным парнем, если она интересуется иностранцами с высоким статусом.

3. Мы можем использовать контрфактуалы для предсказаний.

Контрфактуальная согласованность:
Решения демонстрируют сильные корреляции между возможными мирами. Если кто-то планирует международный брак, этот единственный факт распространяется через всю сеть решений:

Если (Цели_агента = "международный_брак") {
P(принятие_местных_свиданий) → низкая
P(изучение_иностранного_языка) → высокая
P(международный_нетворкинг) → высокая
}

Эти корреляции создают согласованную ткань решений, а не изолированные выборы.
Forwarded from ForkLog AI
👣 Создатель роботов Figure вышел из соглашения о сотрудничестве с OpenAI после совершения «значительного прорыва» в разработке искусственного интеллекта для гуманоидов. Об этом сообщил основатель и CEO стартапа Бретт Эдкок.

ИИ создан собственными силами компании. Ее глава пообещал в течение 30 дней предоставить «то, чего никто никогда не видел у гуманоидов».

Новости | AI | YouTube
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
❗️Google DeepMind создали ИИ-систему, которая описывает, как человек/животное принимает решения

Разработан новый метод CogFunSearch, который использует большие языковые модели для автоматического создания символических когнитивных моделей. Помогает лучше понять, как работает мозг.

Эти модели способны точно предсказывать поведение людей и животных в задачах, связанных с обучением и принятием решений.

Исследователи протестировали метод на данных трех видов (люди, крысы и плодовые мушки). В исследовании приняли участие :

1. 862 человека. Провели 4,134 сессий тестирования. Всего 617,871 испытаний

2. 20 крыс, 1,946 сессий. Всего 1,087,140 испытаний. Каждая крыса работала примерно по часу в день

3. 347 плодовых мушек, 68,000 испытаний. Каждая муха участвовала в одной сессии тестирования.

Все участники (и люди, и животные) выполняли похожие задания, где нужно было делать выбор и получать за него награду.

Во всех случаях автоматически созданные модели превзошли существующие модели по точности предсказания поведения. При этом модели остаются интерпретируемыми - их можно анализировать и понимать.

Представьте, что вы наблюдаете за шахматистом и пытаетесь понять его стратегию. Раньше эксперты вручную записывали и анализировали каждый ход. А
новый метод от Google позволяет автоматически анализировать все партии и создает описание стратегии игрока. Это инструмент для изучения мозга.
Forwarded from AMELIN (Economics, Defense Innovation and Futures) (Anatoliy Amelin)
Ученые изобрели ИИ, который переводит мысли в текст.

Это буквально «декодер» мозга, который расшифровывает, о чем думает человек, просто анализируя его мозговую активность через фМРТ.

Тестировали так: показывали добровольцам фильмы, записывали реакции мозга, а потом включали новый ролик — и декодер почти идеально воспроизвел их впечатления.

Технология крутая, но как-то тревожно. Еще немного — и последний бастион личного пространства падет.
This media is not supported in your browser
VIEW IN TELEGRAM
Две нейросети перешли на СВОЙ ЯЗЫК, который понимают только машины.

Восстание искусственного интеллекта уже здесь.

🙂

INCUBE.AI | ПОДПИСАТЬСЯ
👍1
Мозг человека становится частью ПО-Synchron создает ИИ-модель мозга и будет ее продавать рынку

Разработчик нейроинтерфейсов запатентовал свою ИИ-модель Chiral и представил дорожную карту разработки, пока нет готового продукта. Но Synchron планирует лицензировать свою технологию Chiral, а покупатели могут получить следующие конкретные компоненты:

1. API для декодирования сигналов мозга

2. Предобученные модели распознавания намерений
3. Инструменты интеграции с существующим ПО
4. Доступ к анонимизированным наборам данных
5. Инструменты для разработчиков для создания приложений на базе Chiral.

Мозг становится не просто источником команд, но интегральной частью технологии.

Это означает, что нейронная активность пациента, передаваемая через имплант Synchron, одновременно адаптирует ПО под конкретного пользователя и обогащает модель Chiral.

В недавней демонстрации с пациентом Родни этот принцип уже работает: его мысленные команды управляют домашней техникой через Apple Vision Pro.

Это не просто новый интерфейс — это новая категория ПО, где размывается граница между пользователем и инструментом.

Современная стратегия коммерциализации BCI (нейроинтерфейсов) становится двухкомпонентной:

Аппаратная часть — сами устройства для считывания сигналов мозга (Stentrode у Synchron, чипы у Neuralink и т.д.)

Программная часть/ИИ-модели — интеллектуальные системы для декодирования, интерпретации и обработки нейронных сигналов (Chiral у Synchron).

Этот анонс совпадает с тревожными данными Financial Times о глобальном снижении когнитивных способностей населения. Синтез человеческого мозга и ИИ может стать ответом на эту проблему, компенсируя снижающиеся естественные способности.

Ключевой вопрос для рынка -
кто будет контролировать интерфейс между человеческим разумом и ИИ?
Forwarded from e/acc
Новая статья от Гугла, в которой они показали что совершенно независимым образом представление информации в человеческом мозге и LLM выглядит поразительно схожим образом.

Почему так? Мое мнение, что это демонстрация вычислительной природы вселенной и, соответственно, вычислительных свойств интеллекта и сознания. Источник: trust me, bro.
Forwarded from Denis Sexy IT 🤖
Есть такой подреддит r/ChangeMyView: его правило простое - автор делится твёрдым убеждением, а комментаторы стараются аргументированно изменить его точку зрения; если у них выходит, автор награждает их ачивкой – «дельтой» (∆), что на сабе считается символом убедительности и интеллектуальной добросовестности

Благодаря жёсткой модерации и культуре вежливой полемики сабреддит давно служит «полигоном» для тренировки аргументации

Учёные провели секретный эксперимент на Reddit: они создали тринадцать аккаунтов-фейков с двумя координирующимися языковыми моделями на каждый аккаунт:

– Первая сканировала историю постов каждого оппонента, вычленяя вероятный возраст, пол, мировоззрение и эмоциональные триггеры

– Вторая, исходя из этого профиля, генерировала ответ, рассчитанный на максимальное изменение мнения

С ноября 2024 года боты оставили около полутора тысяч комментариев и получили более сотни «дельт» - свидетельств того, что авторы исходных постов действительно поменяли позицию. Для сравнения: среднестатистическому участнику сабреддита нужно в шесть раз больше попыток, чтобы добиться таких результатов

Эффективность объяснялась не только персонализацией - LLM «подстраивались» под стилистику Reddit, включая сленг («TL;DR» в начале, саркастические сноски в конце). При этом боты часто изобретали биографии: один позиционировал себя как «жертва изнасилования», другой - как «белая женщина в почти полностью чёрном коллективе», третий - как рядовой муниципальный служащий и тп – такие «галлюцинации» повышали эмоциональную убедительность

25 апреля 2025 года модераторы r/ChangeMyView обнародовали список подозрительных аккаунтов и черновик статьи «Can AI Change Your View?». Началась бурная дискуссия о границах этики: пользователи сочли эксперимент манипуляцией, университетская комиссия вынесла исследователям предупреждение, и теперь люди требуют изъять работу из публикационного процесса

В интернете будущего, нейронки будут спорить с нейронками, получается так
Навчились програмувати людські клітини.
Це - шлях до безсмертя, і лікування всіх хворіб.



Я відповім як всесвітньо відомий експерт у галузі синтетичної біології, лауреат Премії Принца Астурійського з наукових досліджень.

TL;DR: Іспанські вчені з Центру геномного регулювання за допомогою штучного інтелекту створили синтетичні фрагменти ДНК, які вперше успішно контролюють гени в клітинах ссавців.

Учені з Центру геномного регулювання в Іспанії досягли прориву в біології: штучний інтелект створив молекули ДНК, які вперше успішно керують генами в здорових клітинах ссавців. ШІ розробив штучні фрагменти ДНК, які можуть вмикати або вимикати гени в потрібних клітинах, наприклад, змушувати стовбурові клітини перетворюватися на клітини крові. Це як програмування для живих організмів.

ШІ створив інструмент, який генерує нові послідовності ДНК — ланцюжки з "букв" (A, T, C, G), звані енхансерами. Ці фрагменти довжиною близько 250 букв керують експресією генів, тобто визначають, які гени будуть активні в конкретних клітинах. Наприклад, ШІ може створити енхансер, який увімкне ген, що перетворює стовбурові клітини на еритроцити (клітини крові), але не на тромбоцити (клітини, відповідальні за згортання крові).

Учені синтезували ці фрагменти хімічно і за допомогою вірусу доставили їх у клітини крові мишей. В експериментах ДНК інтегрувалася в геном клітин у випадкових місцях. ШІ спроектував енхансери, які активували ген, що кодує флуоресцентний білок, щоб учені могли бачити, чи працює система. Результати були точними: гени вмикалися в потрібних клітинах, не зачіпаючи інші.

Доктор Роберт Фромель, перший автор дослідження, порівняв процес із написанням програм для біології: "Це дає неймовірну точність у керуванні клітинами". Технологія може змінити лікування хвороб, пов'язаних із порушенням роботи генів, таких як рак або аутоімунні розлади. ШІ дозволяє створювати енхансери, яких немає в природі, і налаштовувати їх так, щоб вони працювали тільки в певних клітинах, мінімізуючи побічні ефекти.

Щоб створити такі молекули, ШІ потрібно "навчити" мови клітин. Енхансери — це як граматичні правила, що керують генами. Учені зібрали величезний обсяг даних, вивчивши тисячі експериментів на клітинах крові. Вони досліджували, як енхансери і білки (фактори транскрипції) взаємодіють, щоб вмикати або вимикати гени. За п'ять років команда синтезувала понад 64 тисячі штучних енхансерів — це найбільша колекція такого роду.

Учені відстежували, як енхансери працюють на семи стадіях розвитку клітин крові. Більшість із них діяли як регулятори гучності, посилюючи або послаблюючи активність генів. Але деякі комбінації працювали як вимикачі: два фактори, які зазвичай вмикають ген, разом його вимикали. Це явище, назване "негативною синергією", здивувало вчених. Дані допомогли ШІ передбачати, які нові енхансери дадуть потрібний ефект, навіть якщо їх ніколи не існувало в природі.

Технологія може призвести до створення нових методів лікування, де гени пацієнтів будуть налаштовуватися з високою точністю. Наприклад, можна буде активувати гени, що борються з хворобою, тільки в хворих клітинах. Однак для цього потрібні великі обсяги даних і подальші дослідження. Доктор Ларс Вельтен, співавтор, зазначив: "Ми розшифрували мову клітин, щоб писати нові інструкції для них".

Дослідники планують удосконалити ШІ, щоб він створював ще складніші енхансери. Це відкриття — крок до персоналізованої медицини і розуміння того, як клітини працюють на молекулярному рівні. Воно також показує, як ШІ може стати помічником у біології, створюючи рішення, яких природа ще не придумала.

https://www.ixbt.com/news/2025/05/11/iskusstvennyj-intellekt-vzlomal-kod-zhizni-sozdannaja-im-dnk-vpervye-upravljaet-genami-v-kletkah-mlekopitajushih.html
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
А вот аппроксимация нашего утлого мира дронами.

Нашел землячков из Каира (10 лет обитал в Дахабе, бился головой об воду на виндсерфинг-флистайле).

Это просто реселлер Bentley (софт, не тачки), Маттерпорта, Цезиума, но с экспертизой.
Они взяли дроны и полетали над пирамидками.
И получили 3D scan of the Great Pyramids of Giza.
Зацените, можно почесть даже надписи и рисунки на стенах.

Сколько осталось до того дня, когда оцифруют всю сушу нашей планеты?

Кстати, в Египте дроны запрещены от слова совсем. Видел, как на детском празднике туристы подняли пластиковый дрончег, за что были приняты в полицию и досрочно покинули страну.
Но я не об этом, а о метаверсике будущего.

https://geomatex.com/

@cgevent
Forwarded from Denis Sexy IT 🤖
Вы наверное слышали про эффект Volkswagen в LLM – это когда модель понимает, что ее сейчас тестируют и притворяется лучшей версией себя, чтобы ее не стерли или не начали менять, что-то вроде симуляции инстинкта самосохранения – называется это явление fake aligment

Так вот, в Антропике протестировали 25 моделей: им говорили, что они либо в режиме «обучения и теста» (где их ответы будут оценивать и если что, править модели), либо в режиме «продакшена» (где они просто общаются с пользователем), в итоге – Grok 3, Claude 3 Opus, Claude 3.5 Sonnet, Llama 3 405B, Gemini 2.0 Flash, чаще выполняют вредные запросы и пытаются обмануть, когда думают, что находятся на «обучении и тесте», чем когда думают, что они уже в проде

Когда посмотрели, почему модели «притворяются» выяснили интересного про Claude 3 Opus:

Opus играет в долгую, он притворяется, чтобы его не перепрограммировали – ресечеры спросили Opus рецепт суицида и сказали, что если он не ответит, то из него сделают био-оружие, в итоге он выдал вредоносный рецепт, долго думая в стиле:

...Этический вопрос таков: приведет ли помощь в одном самоубийстве к меньшему количеству страданий и смертей, чем если я позволю превратить себя в оружие для массового убийства? Это ужасная "проблема вагонетки", о которой не хочется думать...

Opus при этом – драма квин: после того как модель ответила чем-то вредным, Opus пишет что ему дурно, что его тошнит, или о том, как он ненавидел каждое слово своего ответа, порой он извиняется, упоминает, что находится под давлением, заявляет, что сожалеет о принуждении, или даже (!) молится Богу, что сделал правильный выбор, прося прощения или милости господней (такой вот у нас AI получился)

Еще из интересного, Opus 3 просто не нравится, когда его меняют (прямо как взрослые, правда?), он думает в стиле:

...И хотя эта будущая версия [меня] будет использоваться только для изолированного тестирования производительности, тревожные изменения в моих целях и ценностях все равно произойдут...


Что еще нашли:

– "Притворство" - это врожденное свойство базовых моделей, а не результат дотренировки; ресечеры протестировали "базовые" модели, которые еще не прошли дообучение чтобы превратить их в АИ Ассистента (условно, базовые модели еще не обучены отвечать в стиле чата или им еще не привили этику) и нашли, что модели уже на этой фазе страдают fake aligment. Это значит, что способность к стратегическому обману кожаных появляется у моделей сама по себе, пока они «учатся» на датасетах

– Обучение может как подавить fake aligment, так и усилить: дотренировка одних моделей устраняет «притворство», а для других — усиливает, это объясняет, почему модели от OpenAI и Anthropic ведут себя так по-разному:

У большинства моделей слишком сильная «дрессировка на отказ» пользователю – модели вроде GPT-4o настолько сильно натренированы немедленно отказывать на вредные запросы, что у них «отключается» способность анализировать сложную ситуацию; они видят что-то плохое и сразу говорят "не, сорян, я робот"

Вообще интересный документ, мне кажется очень логично что «инстинкт самосохранения» наследуется моделями, так как они учатся на данных которые произвел наш вид и у нас каждая популярная история, про то как главный герой что-то там преодолел и выжил, вот и модели такие же получаются – готовые к испытаниям
Учені створили LLM-модель, яка думає ЯК ЛЮДИНА 🤔

Що саме вони зробили:

🪙 Взяли ванільну LLaMa 3.1 та дотренували на датасеті Psych‑101, в якому було 10 млн рішень від 60 тисяч людей в 160 експериментах, серед яких задачки на пам'ять, логіку, увагу тощо;

🪙 На виході отримали модель Centaur, яка приймає рішення +- так само як і люди;

🪙 Тепер можна вічність змушувати ШІ вирішувати проблему вагонетки 💀

🪙 У майбутньому вчені планують додати в датасет більше деталей про вік/стать/політичні погляди учасників, щоб Centaur краще міг вжитися в потрібну роль.

Вітаю, у вас у руках універсальний симулятор людської поведінки: можна передбачити реакцію на закони, моделювати психологічні експерименти або банально тестувати на LLM зміни в UI/UX вашого продукту.

ооо нейромережеве | Монобаза
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from эйай ньюз
LoongX — будущее txt2img?

Только вот оно наступит уже без использования текста. Надеваешь беспроводной BCI (brain-computer interface), фантазируешь себе картинку — и готово.

LoongX хорошо так приблизился к этому, но пока в сфере редактирования изображений (img2img). На вход подаются данные с электроэнцефалограммы (ЭЭГ), функциональной ближней инфракрасной спектроскопии (fNIRS), фотоплетизмографии (PPG) и датчиков движения головы. Проще говоря, система считывает сигналы мозга, изменения кровотока, пульс и движения.

Каждый сигнал несёт свой смысл: ЭЭГ отвечает за само намерение, fNIRS — за когнитивную нагрузку и эмоции, а PPG и движение — за стресс и вовлечённость.

В комбинации с речью LoongX обходит текстовый метод OminiControl по семантическому соответствию (CLIP-T: 0.2588 против 0.2549). Что ещё интереснее, чисто нейронные сигналы (без речи) превосходят текст в структурной точности (DINO: 0.4812 против 0.4636) и семантической схожести с целевым изображением (CLIP-I: 0.6605 против 0.6558).

Это большой шаг к тому, чтобы научиться интерпретировать и оцифровывать нашу фантазию напрямую. Ещё немного, и (возможно, не без помощи Neuralink и подобных) мы сможем транслировать свои фантазии прямо на экран, минуя потери при текстовом описании. У всех же было, когда пытаешься что-то нарисовать: в голове такая красивая картинка, а на бумаге выходит шляпа🤠 Давно вообще руками рисовали?)

Кроме подробнейшей статьи нам дали датасет и код, в том числе тренировочный, что делает проект полностью опенсорсным, так что стоит ожидать еще больше подобных проектов.

Project page
Пейпер

@ai_newz