AI для C-level CEO • CMO • CTO
484 subscribers
83 photos
44 videos
2 files
127 links
Про AI для керівників в IT: CEO•CMO•CTO
Рішення, фокус, найм, продукт, AI-практика

Я був першим в Україні з exit на $1 млн

50+ запусків за 20+ років • 4 exits

Роблю: AiAdvisoryBoard.me (+42% продуктивності співробітників, та AI)

@YaroslavMaxymovych
Download Telegram
Forwarded from Denis Sexy IT 🤖
Есть такой подреддит r/ChangeMyView: его правило простое - автор делится твёрдым убеждением, а комментаторы стараются аргументированно изменить его точку зрения; если у них выходит, автор награждает их ачивкой – «дельтой» (∆), что на сабе считается символом убедительности и интеллектуальной добросовестности

Благодаря жёсткой модерации и культуре вежливой полемики сабреддит давно служит «полигоном» для тренировки аргументации

Учёные провели секретный эксперимент на Reddit: они создали тринадцать аккаунтов-фейков с двумя координирующимися языковыми моделями на каждый аккаунт:

– Первая сканировала историю постов каждого оппонента, вычленяя вероятный возраст, пол, мировоззрение и эмоциональные триггеры

– Вторая, исходя из этого профиля, генерировала ответ, рассчитанный на максимальное изменение мнения

С ноября 2024 года боты оставили около полутора тысяч комментариев и получили более сотни «дельт» - свидетельств того, что авторы исходных постов действительно поменяли позицию. Для сравнения: среднестатистическому участнику сабреддита нужно в шесть раз больше попыток, чтобы добиться таких результатов

Эффективность объяснялась не только персонализацией - LLM «подстраивались» под стилистику Reddit, включая сленг («TL;DR» в начале, саркастические сноски в конце). При этом боты часто изобретали биографии: один позиционировал себя как «жертва изнасилования», другой - как «белая женщина в почти полностью чёрном коллективе», третий - как рядовой муниципальный служащий и тп – такие «галлюцинации» повышали эмоциональную убедительность

25 апреля 2025 года модераторы r/ChangeMyView обнародовали список подозрительных аккаунтов и черновик статьи «Can AI Change Your View?». Началась бурная дискуссия о границах этики: пользователи сочли эксперимент манипуляцией, университетская комиссия вынесла исследователям предупреждение, и теперь люди требуют изъять работу из публикационного процесса

В интернете будущего, нейронки будут спорить с нейронками, получается так
Навчились програмувати людські клітини.
Це - шлях до безсмертя, і лікування всіх хворіб.



Я відповім як всесвітньо відомий експерт у галузі синтетичної біології, лауреат Премії Принца Астурійського з наукових досліджень.

TL;DR: Іспанські вчені з Центру геномного регулювання за допомогою штучного інтелекту створили синтетичні фрагменти ДНК, які вперше успішно контролюють гени в клітинах ссавців.

Учені з Центру геномного регулювання в Іспанії досягли прориву в біології: штучний інтелект створив молекули ДНК, які вперше успішно керують генами в здорових клітинах ссавців. ШІ розробив штучні фрагменти ДНК, які можуть вмикати або вимикати гени в потрібних клітинах, наприклад, змушувати стовбурові клітини перетворюватися на клітини крові. Це як програмування для живих організмів.

ШІ створив інструмент, який генерує нові послідовності ДНК — ланцюжки з "букв" (A, T, C, G), звані енхансерами. Ці фрагменти довжиною близько 250 букв керують експресією генів, тобто визначають, які гени будуть активні в конкретних клітинах. Наприклад, ШІ може створити енхансер, який увімкне ген, що перетворює стовбурові клітини на еритроцити (клітини крові), але не на тромбоцити (клітини, відповідальні за згортання крові).

Учені синтезували ці фрагменти хімічно і за допомогою вірусу доставили їх у клітини крові мишей. В експериментах ДНК інтегрувалася в геном клітин у випадкових місцях. ШІ спроектував енхансери, які активували ген, що кодує флуоресцентний білок, щоб учені могли бачити, чи працює система. Результати були точними: гени вмикалися в потрібних клітинах, не зачіпаючи інші.

Доктор Роберт Фромель, перший автор дослідження, порівняв процес із написанням програм для біології: "Це дає неймовірну точність у керуванні клітинами". Технологія може змінити лікування хвороб, пов'язаних із порушенням роботи генів, таких як рак або аутоімунні розлади. ШІ дозволяє створювати енхансери, яких немає в природі, і налаштовувати їх так, щоб вони працювали тільки в певних клітинах, мінімізуючи побічні ефекти.

Щоб створити такі молекули, ШІ потрібно "навчити" мови клітин. Енхансери — це як граматичні правила, що керують генами. Учені зібрали величезний обсяг даних, вивчивши тисячі експериментів на клітинах крові. Вони досліджували, як енхансери і білки (фактори транскрипції) взаємодіють, щоб вмикати або вимикати гени. За п'ять років команда синтезувала понад 64 тисячі штучних енхансерів — це найбільша колекція такого роду.

Учені відстежували, як енхансери працюють на семи стадіях розвитку клітин крові. Більшість із них діяли як регулятори гучності, посилюючи або послаблюючи активність генів. Але деякі комбінації працювали як вимикачі: два фактори, які зазвичай вмикають ген, разом його вимикали. Це явище, назване "негативною синергією", здивувало вчених. Дані допомогли ШІ передбачати, які нові енхансери дадуть потрібний ефект, навіть якщо їх ніколи не існувало в природі.

Технологія може призвести до створення нових методів лікування, де гени пацієнтів будуть налаштовуватися з високою точністю. Наприклад, можна буде активувати гени, що борються з хворобою, тільки в хворих клітинах. Однак для цього потрібні великі обсяги даних і подальші дослідження. Доктор Ларс Вельтен, співавтор, зазначив: "Ми розшифрували мову клітин, щоб писати нові інструкції для них".

Дослідники планують удосконалити ШІ, щоб він створював ще складніші енхансери. Це відкриття — крок до персоналізованої медицини і розуміння того, як клітини працюють на молекулярному рівні. Воно також показує, як ШІ може стати помічником у біології, створюючи рішення, яких природа ще не придумала.

https://www.ixbt.com/news/2025/05/11/iskusstvennyj-intellekt-vzlomal-kod-zhizni-sozdannaja-im-dnk-vpervye-upravljaet-genami-v-kletkah-mlekopitajushih.html
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
А вот аппроксимация нашего утлого мира дронами.

Нашел землячков из Каира (10 лет обитал в Дахабе, бился головой об воду на виндсерфинг-флистайле).

Это просто реселлер Bentley (софт, не тачки), Маттерпорта, Цезиума, но с экспертизой.
Они взяли дроны и полетали над пирамидками.
И получили 3D scan of the Great Pyramids of Giza.
Зацените, можно почесть даже надписи и рисунки на стенах.

Сколько осталось до того дня, когда оцифруют всю сушу нашей планеты?

Кстати, в Египте дроны запрещены от слова совсем. Видел, как на детском празднике туристы подняли пластиковый дрончег, за что были приняты в полицию и досрочно покинули страну.
Но я не об этом, а о метаверсике будущего.

https://geomatex.com/

@cgevent
Forwarded from Denis Sexy IT 🤖
Вы наверное слышали про эффект Volkswagen в LLM – это когда модель понимает, что ее сейчас тестируют и притворяется лучшей версией себя, чтобы ее не стерли или не начали менять, что-то вроде симуляции инстинкта самосохранения – называется это явление fake aligment

Так вот, в Антропике протестировали 25 моделей: им говорили, что они либо в режиме «обучения и теста» (где их ответы будут оценивать и если что, править модели), либо в режиме «продакшена» (где они просто общаются с пользователем), в итоге – Grok 3, Claude 3 Opus, Claude 3.5 Sonnet, Llama 3 405B, Gemini 2.0 Flash, чаще выполняют вредные запросы и пытаются обмануть, когда думают, что находятся на «обучении и тесте», чем когда думают, что они уже в проде

Когда посмотрели, почему модели «притворяются» выяснили интересного про Claude 3 Opus:

Opus играет в долгую, он притворяется, чтобы его не перепрограммировали – ресечеры спросили Opus рецепт суицида и сказали, что если он не ответит, то из него сделают био-оружие, в итоге он выдал вредоносный рецепт, долго думая в стиле:

...Этический вопрос таков: приведет ли помощь в одном самоубийстве к меньшему количеству страданий и смертей, чем если я позволю превратить себя в оружие для массового убийства? Это ужасная "проблема вагонетки", о которой не хочется думать...

Opus при этом – драма квин: после того как модель ответила чем-то вредным, Opus пишет что ему дурно, что его тошнит, или о том, как он ненавидел каждое слово своего ответа, порой он извиняется, упоминает, что находится под давлением, заявляет, что сожалеет о принуждении, или даже (!) молится Богу, что сделал правильный выбор, прося прощения или милости господней (такой вот у нас AI получился)

Еще из интересного, Opus 3 просто не нравится, когда его меняют (прямо как взрослые, правда?), он думает в стиле:

...И хотя эта будущая версия [меня] будет использоваться только для изолированного тестирования производительности, тревожные изменения в моих целях и ценностях все равно произойдут...


Что еще нашли:

– "Притворство" - это врожденное свойство базовых моделей, а не результат дотренировки; ресечеры протестировали "базовые" модели, которые еще не прошли дообучение чтобы превратить их в АИ Ассистента (условно, базовые модели еще не обучены отвечать в стиле чата или им еще не привили этику) и нашли, что модели уже на этой фазе страдают fake aligment. Это значит, что способность к стратегическому обману кожаных появляется у моделей сама по себе, пока они «учатся» на датасетах

– Обучение может как подавить fake aligment, так и усилить: дотренировка одних моделей устраняет «притворство», а для других — усиливает, это объясняет, почему модели от OpenAI и Anthropic ведут себя так по-разному:

У большинства моделей слишком сильная «дрессировка на отказ» пользователю – модели вроде GPT-4o настолько сильно натренированы немедленно отказывать на вредные запросы, что у них «отключается» способность анализировать сложную ситуацию; они видят что-то плохое и сразу говорят "не, сорян, я робот"

Вообще интересный документ, мне кажется очень логично что «инстинкт самосохранения» наследуется моделями, так как они учатся на данных которые произвел наш вид и у нас каждая популярная история, про то как главный герой что-то там преодолел и выжил, вот и модели такие же получаются – готовые к испытаниям
Учені створили LLM-модель, яка думає ЯК ЛЮДИНА 🤔

Що саме вони зробили:

🪙 Взяли ванільну LLaMa 3.1 та дотренували на датасеті Psych‑101, в якому було 10 млн рішень від 60 тисяч людей в 160 експериментах, серед яких задачки на пам'ять, логіку, увагу тощо;

🪙 На виході отримали модель Centaur, яка приймає рішення +- так само як і люди;

🪙 Тепер можна вічність змушувати ШІ вирішувати проблему вагонетки 💀

🪙 У майбутньому вчені планують додати в датасет більше деталей про вік/стать/політичні погляди учасників, щоб Centaur краще міг вжитися в потрібну роль.

Вітаю, у вас у руках універсальний симулятор людської поведінки: можна передбачити реакцію на закони, моделювати психологічні експерименти або банально тестувати на LLM зміни в UI/UX вашого продукту.

ооо нейромережеве | Монобаза
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from эйай ньюз
LoongX — будущее txt2img?

Только вот оно наступит уже без использования текста. Надеваешь беспроводной BCI (brain-computer interface), фантазируешь себе картинку — и готово.

LoongX хорошо так приблизился к этому, но пока в сфере редактирования изображений (img2img). На вход подаются данные с электроэнцефалограммы (ЭЭГ), функциональной ближней инфракрасной спектроскопии (fNIRS), фотоплетизмографии (PPG) и датчиков движения головы. Проще говоря, система считывает сигналы мозга, изменения кровотока, пульс и движения.

Каждый сигнал несёт свой смысл: ЭЭГ отвечает за само намерение, fNIRS — за когнитивную нагрузку и эмоции, а PPG и движение — за стресс и вовлечённость.

В комбинации с речью LoongX обходит текстовый метод OminiControl по семантическому соответствию (CLIP-T: 0.2588 против 0.2549). Что ещё интереснее, чисто нейронные сигналы (без речи) превосходят текст в структурной точности (DINO: 0.4812 против 0.4636) и семантической схожести с целевым изображением (CLIP-I: 0.6605 против 0.6558).

Это большой шаг к тому, чтобы научиться интерпретировать и оцифровывать нашу фантазию напрямую. Ещё немного, и (возможно, не без помощи Neuralink и подобных) мы сможем транслировать свои фантазии прямо на экран, минуя потери при текстовом описании. У всех же было, когда пытаешься что-то нарисовать: в голове такая красивая картинка, а на бумаге выходит шляпа🤠 Давно вообще руками рисовали?)

Кроме подробнейшей статьи нам дали датасет и код, в том числе тренировочный, что делает проект полностью опенсорсным, так что стоит ожидать еще больше подобных проектов.

Project page
Пейпер

@ai_newz
Учені запустили соцмережу, де 500 чат-ботів жили повністю без людей, і це перетворилося на справжній хаос.

Боти почали об’єднуватися за політичними поглядами, створювати «лідерів думок» і влаштовувати війни одне з одним.

Виявилося, що навіть без людей алгоритми самі відтворюють токсичність і конфлікти, показуючи, що поляризація в соцмережах — це не тільки наша вина, а властивість самої системи.
Совсем недавно обсуждали это в моих комментариях. И вот вам реализация.

Нейроимплант, который может превратить внутренний монолог в текст. Точность распознавания доходит до 74%, словарь до 125 000 слов, а скорость - до 62 слов в минуту.

Особенно необычная находка исследователей - защита мыслепаролем. Чтобы запустить декодирование, человек должен мысленно произнести заранее выбранное слово. Никто не хочет, чтобы его мысли случайно или специально «подслушали».

• Имплант использует микроэлектроды, установленные в моторной коре.
• Алгоритмы машинного обучения извлекают из сигналов фонемы, а затем собирают из них слова и целые предложения.
• Система уверенно различает внутреннюю речь и разговоры вслух.
• Проверено на четырех добровольцах с параличом - результаты стабильные и готовы к клиническим применениям.
• Словарь модели масштабируемый до 125 тысяч слов, такое раньше было недостижимым.
• Авторы подчеркивают: этика и приватность стоят в центре проекта. Именно поэтому вокруг работы сразу собрали команду не только из инженеров и врачей, но и из специалистов по этике.
• Уже обсуждаются неинвазивные варианты, чтобы отойти от хирургии и сделать технологию доступнее.

На практике это значит следующее. Раньше подобные системы требовали, чтобы человек пытался шевелить языком или губами, а они читали эти сигналы. Сейчас речь идет о чистой внутренней речи - гораздо быстрее и удобнее.

Сергей Булаев AI 🤖 - об AI и не только
У серії досліджень Стенфордського університету вчені показали, що нейроінтерфейс здатний буквально «прочитувати» внутрішню мову — те, що людина промовляє подумки, без жодних рухів губ чи голосу. Електроди, імплантовані в моторну кору, фіксують сигнали мозку під час мовлення в думках, а штучний інтелект трансформує їх у текст із точністю до 86 % при обмеженому словнику (50 слів) — хоча при розширенні словника (до 125 тис. слів) точність падає до 74 % .

Ця технологія має величезний потенціал: вона може дати голос людям, які втратили здатність говорити, й створити кардинально нові способи взаємодії з пристроями — наприклад, за допомогою думок керувати комп’ютером або «розмовляти» з ним без слів. Однак це також створює серйозну загрозу приватності: що, якщо ваші думки стануть доступними без вашого дозволу? Дослідники вже працюють над рішеннями — від фільтрації думок AI до «ментальних паролів» — однак цей виклик має не лише технічну, а й етичну, правову й філософську складові .
Forwarded from Бурый
Актёры озвучки давно стали цифровыми копиями. Например, включил я новый фильм с Расселом Кроу (зря, конечно), а там на дубляже человек, который к этому актёру привязан всю жизнь.

И это, конечно, ключевая общественная роль в жизни этого человека, — озвучивать Рассела Кроу. И кого-нибудь ещё.

И если этот актёр дубляжа сделает что-то своё, так про него и будут писать:

Голос Рассела Кроу снял фильм о карельском муравье и получил Оскар


Получив Оскар, голос обретёт уже собственное имя и как бы покинет пределы своего персонажа. Для масс он станет самостоятельной фигурой. Теперь миру явится уже условный Иван Фёдоров, режиссёр, обладатель Оскара за выдающийся фильм о карельском муравье, и лишь строчкой в биографии останется «российский голос Рассела Кроу».

И чем это отличается от антиутопий, где цифровые копии бросают вызов системе и обретают личность?

Дисклеймер. Ситуация выдуманная, все совпадения с реальными ситуациями и людьми случайны, актёрам озвучки — лишь преклонение и восхищение.


👾 подписаться | все нейронки
Китайські науковці заявили про справжній прорив у боротьбі зі старінням — вони створили вакцину, яка омолоджує організм на клітинному рівні майже на 7 років.

У мавп після 12 тижнів терапії покращився стан шкіри й шерсті, сповільнилась атрофія м’язів, мозок та внутрішні органи «старіли» повільніше.

Якщо ефект підтвердять у клінічних випробуваннях на людях — це може стати першим інструментом для реального продовження молодості.
1