AI для C-level CEO • CMO • CTO
484 subscribers
83 photos
44 videos
2 files
127 links
Про AI для керівників в IT: CEO•CMO•CTO
Рішення, фокус, найм, продукт, AI-практика

Я був першим в Україні з exit на $1 млн

50+ запусків за 20+ років • 4 exits

Роблю: AiAdvisoryBoard.me (+42% продуктивності співробітників, та AI)

@YaroslavMaxymovych
Download Telegram
Forwarded from Сиолошная
Начинаем выходные с вырезки из недавнего интервью Mira Murati (CTO OpenAI). Это, кстати, не первое её публичное появление за последний месяц — видимо, решили спрятать Sam от глаз публики, ибо слишком много негатива и претензий льётся в его сторону. А может просто более важными вещами занят 🤷‍♂️

Так вот, в этом кусочке Mira говорит про то, что модели GPT-3 по уровню интеллекта были как маленькие детки, GPT-4 на уровне старшеклассников, а в ближайшее время (в течение полутора лет) доберёмся до моделей уровня PhD (кандидатов наук) в рамках определённых задач. Вы можете не соглашаться с оценками, это популярная позиция, мол, GPT-4 на самом деле вообще не сравнима, но не в этом суть.

Что привлекло моё внимание, так это схожесть с тезисом из Situational Awareness за авторством Leopold Aschenbrenner, помните я писал про интервью и анонс работы? На бумаге у Leopold были такие же расчёты, привязанные к количеству вычислений, производимых во время обучения моделей, и
— GPT-2 имела уровень дошкольника
— GPT-3 уровень начальной школы
— GPT-4 уровень умного старшеклассника
— и дальше на горизонте модели PhD-level

Думаю, эта схожесть не случайна, и варианта вижу три:
— это распространенный внутри OpenAI подход к рассуждению
— Mira это придумала сама, не читав работу Leopold
— Mira прочитала работу и переняла эту оценку

Мне кажется, что почти наверняка это вариант 1, да и расчёты по таймлайнам в самой работе очень похожи на те, что были у штатного философа-предсказателя OpenAI Daniel Kokotajlo, задача которого была буквально оценивать сроки развития технологий и разрабатывать необходимые меры по интеграции систем в экономику и сообщество. У него даже предсказанный год появления AGI был тот же: 2027. И ровно к этому сроку OpenAI официально планировали закончить проект Superalignment'а (которого уже нет), так как считали, что нужно готовиться к развитию суперинтеллекта.

Опять же, вы можете не соглашаться с самими предсказаниями/тезисами/траекторией развития, но моя рабочая гипотеза в том, что всё это — часть реального внутреннего видения и прогнозов, которые OpenAI берут за номинальные. Это обсуждается, обговаривается, ведутся дебаты за обеденным столом, команда прогнозистов делает корректировки, etc.

В их картине мира они действительно идут к точке, что через 3-4 года будет AGI (определённый как «на уровне эксперта в большинстве экономически важных задач»); это не подразумевает, что через 4 года людей почти на всех работах заменит GPT-X, так как есть и регуляции, и проблемы внедрения технологии, и даже просто забастовки людей; такая система может быть разработана, но не анонсирована. Или разработана и анонсирована, но законсервирована, пока не появятся регуляции.

В комменты пишите свои аргументированные доводы, почему вы не согласны с таймлайном OpenAI.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Media is too big
VIEW IN TELEGRAM
Ну и вот попытка подсмотреть, как в голове у видео-ИИ устроена модель мира.

Взяли сгенерированное видео из SORA и присунули его в Нерф. Получили 3Д-модель сгенерированного мира. Понятно, что в голове у ИИ латентное пространство типа 738D, вместо нашего утлого 3D. И мы через такую 3Д-замочную скважину в виде Neural Radiance Fields (NeRFs) and 3D Gaussian Splatting (3DGS) можем теперь подглядывать чего он там насимулил про нас и наше восприятие.

Я уже писал философский пост о том, что LLM (возможно) через все эти текстовые датасеты срисовали то, как мы мыслим, ибо язык - инструмент мышления, а не общения.

Через все эти размеченные видео и картинки у ИИ в голове строится этакая визуальная модель реконструкции этого мира - способ построения картинок в голове в ответ на сигналы в виде слов(текстов) и звуков.

Ну и понятно, что он реконструирует разные многочисленные миры, соответствующие разным промптам, от игровых миров, как в случае с майнкрафтовым видео, до самых замысловатых фантазий и даже мультиков.

Пока были только генераторы картинок, речь шла скорее о симуляции воображения. С появлением временного измерения запахло симуляцией работы всего нашего мира. Точнее симуляцией того, что происходит у нас в голове (как там в реальности мы не знаем, вон змеи не видят неподвижное и живут без этой части мира в голове).

Ну и интересно поразмышлять о том, какие миры у него в башке будут близки друг к друг другу по "смыслу". Помните на у него на картинках от короля к королеве идет такой же вектор как от мужчины к женщине в его мозгах. Ответ может быть неочевидным. И шорткаты между мирами могут вас удивить.
Forwarded from Denis Sexy IT 🤖
В Nature вышла интересная статья (pdf), в ней рассматрели «человеческий язык» как инструмент для передачи информации и пришли к выводу, что это клевый способ для коллаборативной работы нас как вида (и шитпоста в интернете), но язык не нужен мозгу для «мыслительного процесса»

Я никогда не задумывался, как выглядит «мысль» если исключить из нее «язык», поэтому вот пару интересных наблюдений из статьи о том как устроен процесс мышления:

1. Мысли, вероятно, опираются на абстрактные, неязыковые ментальные представления. Это могут быть визуальные, пространственные или другие специфические представления под конкретные задачи и концепции. Как человек, который в любой момент времени может вспомнить любой маршрут по которому я ходил где-то и был трезвый, могу сказать что все так, у меня «карта местности» просто существует в виде образа в голове, как оказалось, так не у всех

2. В голове есть ансамбль нейронок — в статье упоминается несколько «мозговых сетей», участвующих в различных задачах:

— Есть нейронка «множественных требований» для целенаправленного поведения и решения новых задач, она поощряет находчивость при решении проблем, активируется при выполнении когнитивно сложных задач, особенно тех, которые требуют гибкого мышления и адаптации к новым ситуациям. Она же отвечает за планирование и рабочую память;

— Есть нейронка «теории разума» или «эмпатии»: для социального рассуждения и понимания психических состояний – мыслей, чувств, убеждений и намерений других людей. Это та, которая у нас уже хуже чем в GPT4o;

— Есть «Дефолтная нейронка», активируется когда мозг в покое – связана с кучей когнитивных штук, включая: способность мысленно перемещаться во времени (вспоминая прошлое или представляя будущее), пространственное познание, размышление о себе, своих чертах и опыте. Интересно, что повреждение это "сетки" ведет к депрессии или даже шизофрении (в теории).

3. Символическое мышление может происходить без языка как инструмента. Это означает, что мозг может манипулировать абстрактными символами или концепциями, не опираясь на слова или грамматические структуры. Условно, когда вам что-то «пришло в голову из неоткуда», это этот эффект.

4. Рассуждение по специфичным задачам — разные типы мышления (математические, социальные, пространственные и т.д.), по-видимому, задействуют разные мозговые «нейронки», что предполагает, что процессы мышления могут быть в некоторой степени модульными и специфичными для конкретных задач; это как если бы у одной мощной LLM было много Lora натренированных на конкретных задачах датасета, а не единая модель для решения всех задач.

5. Параллельная обработка — все эти «нейронки» для решения специфичных задач (социальные, причинно-следственные, решение проблем и т.д.) могут работать параллельно, получая при этом информацию с разных «сенсоров» тела, а не определяться единой системой, такой как язык.

6. Мы сильно похожи на животных — в статье упоминается непрерывность человеческой эволюции, предполагая, что наши процессы мышления могут быть более похожими на процессы мышления других животных, чем считалось ранее, просто они оказались более сложными из-за наших расширенных когнитивных способностей. То есть, условная собака может оказаться намного ближе к нам по процессу мышления чем мы раньше думали.

7. Культура развивает мышление — хоть это и не прямой механизм мышления, в статье упоминается что передача культурных знаний от поколения в поколение, повышает когнитивные способности человека с течением времени, это уже влияние языка как инструмента.


Короче, все еще ничего не понятно — но на всякий случай продолжайте тренировать лоры ☕️
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from эйай ньюз
Нас ждет абсолютно новый геймдев. Зацените, что делают ребята, которые сидят на жестких гауссиан сплатах.

Одна картинка и целый мир готов. В целом генерация таких 3D сцен — это не новость, но вот в риалтайме еще никому не удавалось. На генерацию одной полной сцены уходит 10 секунд на A6000 GPU. Это, конечно, не ультра скорость, но учтите, что даже в играх никто не рендерит во все 360.  Можно считать, что это просто мир прогружается, а потом спокойно бегать.

Картинка номер 2 в общем-то вполне наглядно объясняет принцип работы. Здесь у нас солянка из добротных быстрых гауссиан сплатов, карт глубины и аутпейнтинга.

Берут изначальную картинку, из нее извлекают карту глубины, как в обычном контролнете при аутпейнтинге генерируют мир вокруг изначальной картинки. Но с тем отличием, что карту глубины как бы упрощают и берут ограниченное количество "глубин" в целях оптимизации. Тренируют салаты по картинке.

Наслаждаемся и ходим по новоиспеченной сцене.

А если к этому еще и прикрутить PhysDreamer ой-ой-йой... (это который позволяет физически взаимодействовать со сплатами)

Когда там уже нейрорендер станет мейнстримом? Где мой риалтайм сгенерированный мир в 120 fps или ещё лучше как в нашей статье 1000fps?

Ветка про Gaussian Splatting:
- 3D Gaussian Splatting ликбез
- NerfStudio, ну а вдруг пригодится,
- мерджим картинки,
- Infinite Realities
- PhysDreamer


Project page, там даже есть демо, правда, заранее сгенерированное, просто погулять. Но сам рендеринг сцены прямо в браузере, придется немного подождать.
Бумага
Код (скоро)

@ai_newz
Исследователи Google смоделировали появление жизни, создав само-реплицирующиеся цифровые формы жизни с помощью языка программирования Brainfuck. Они начали с случайных данных, которые взаимодействовали на протяжении миллионов поколений, и эти данные эволюционировали в само-реплицирующиеся программы. Эксперты отмечают, что само-репликация — это лишь часть жизни, требующая дальнейшей сложности. Ученые считают, что с большей вычислительной мощностью можно достичь более сложных результатов.

](https://futurism.com/the-byte/google-simulated-emergence-life).
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Помните эти новости, типа "французы убили OpenAI выпустив голосового помощника Moshi"?
Вместо того, чтобы сами ломиться тестировать проще посадить их рядом и попросить поговорить. Сразу станет понятно, у кого задержка меньше, кто умнее и тд.
И вот эта вот идея о том, что два ИИ разговаривают постепенно проникает в наши мозги.
Пока все рассматривали сценарии типа "ИИ, забронируй мне отель", но на стороне отеля тоже ИИ. И вот они уже весело щебечут.
Идем дальше: "ИИ сгоняй на звонок вместо меня, все равно мне там сидеть и слушать". И вот уже все пригнали своих ИИ-ассистентов на онлайн-колл, и они там решают судьбы мира.
А мне вот в связи с эти видится еще одно применение.
Помните, как ловко ИИ уже пишет сценарии. Даже диалоги выписывает, держа в голове несколько персонажей. Но если мы возьмем пару разных ИИ-агентов и заставим их поговорить друг с другом в реальном времени, то диалоговые сценарии могут быть, скажем так, очень свежими. Более того, кожаным сценаристам будет что подслушать и что спиратить для своих, пока еще кожаных, пьес.

В общем послушайте как два ИИ лопочут, один взрослый, второй поменьше и подумайте, о возможных применениях.
Интервью фаундера Adept - AI агенты для knowledge workers, подняли $400 млн с 2022, были вынуждены продаться Amazon:

- Раньше он был VP of engineering GPT и Dall-e
- Главный миф про AGI - что через 10 лет заберет у нас работу. Да нет, просто будет скачок как от MS-DOS к графическим интерфейсам

Co-pilots
- Это и просто путь захвата рынка новыми игроками, но и наш ангел Scott Belsky (фаундер Behance) говорит: будет collapse of talent - один чел будет играть роль сразу PM/designer/engineer, руля пачкой co-pilots, мы станем более generalists
- У enterprises большие бюджеты на опыты с AI и мы переоцениваем их real adoption щас, но через 10 лет в продакшне будет больше, чем думаем
- AI services компании (помогают внедрять AI в enterprises) будут больше по выручке, чем model providers. Но продуктовые - еще больше

Adept
- Мы не пилим LLM, а в узкой нише агентов кому можно поручить произвольную работу. И тут верим в вертикальную интеграцию начиная от интерфейса end users
- Разница: RPA/Uipath делают много идентичных задач, их внедряют по полгода (меняя процессы) всякие Accenture (главный канал продаж). Агенты же постоянно меняют план как решать задачу. Enterprises юзают RPA и агенты параллельно
- Через 5-10 лет сможем ставить агентам высокоуровневые цели
- Мы как self-driving, когда его еще не было - потенциал даже сложно вообразить

Foundational models, чипы
- LLM сами по себе не продукт. Станут base layer для всего, как в софте EC2 nodes и storage. Nvidia подъедает, идя по value chain, поэтому все cloud providers и LLM игроки пилят свои чипы
- Думаю, будет вертикальная интеграция LLM и чипов. А иначе Google нет смысла продавать TPU, если фора по цене 20% - проще самим тренить и брать выручку с end users
- Альянс Apple и OpenAI двоякий: говорит, что коммодитизация LLM будет, но и еще что Gpt4o с мультимодальностью и OpenAI пока научно далеко впереди. А Apple будет мелкими моделями что-то солвить локально на приватных data юзеров
- У топ LLM сжимается окно набрать нужный объем выручки от end users чтобы остаться независимыми

3 эпохи DL в AI
1. До 2012 в AI и ML пробовали всякое и не работало
2. Google Brain 2012-2018, чистый R&D: собрали всех топ ученых и каждый искал из своего любопытства -> создали transformers, diffusion, оптимизацию - все, что сейчас воспринимают как должное
3. А с 2018 new age - Deepmind поняли, что надо прикладывать ML к разным real world or science problems

Лернинги OpenAI
- Я работал с Ильей, он говорил: давай трансформеры - они же всюду применимы
- OpenAI направлял бездну людей на одну проблему (типа “как управлять рукой робота”), этот подход уже не как в просто academia (там главная цель - статьи). Не пачка мелких ракет, а лунная программа
- 6 лет от transformers к chatGPT - это чтобы end users ну прям оценили. И за год до B2C релиза ChatGPT выкатили API разрабам играться

Ограничения моделей
- Не верю в иссякание performance моделей, просто это логарифмическая кривая: GPT5 заюзает в 100x больше вычислений, чем GPT4. Но закон Мура позволяет
- Но LLM НЕ superhuman, НЕ рождают новые подходы к нерешенным задачам
- Про данные как было? E.g. Учим решать maths - грузим кучу правильных решений, ОК. Но можно встроить модель в блокноты людей, кто только пробует решить, и это бездна data to absorb. Их больше в разговорах и на whiteboards, чем в datasets. Ну и конечно "бесконечный RL пока не решишь" типа AlphaGo

Reasoning
- Reasoning: для меня это способность порождать новые мысли. В отрасли есть идеи как решать, на roadmaps всех LLM игроков, но нужен рисеч
- Кодеры строят что-то конкретное, но в AI ты мало что меняешь, а просто растишь масштаб и наблюдаешь new intelligence. Хотя щас сложнее быть уверенным "натреним модель на $2 млрд, 100% что-то улучшим" =)
- Окно контекста в ML сложно, хотя у Gemini 1 млн токенов, но надо real memory оf long term предпочтений юзеров

Прочее
- Open source оч важен, пусть и с неким лагом из-за роста костов, но так вся отрасль будет поспевать за лидерами
- Регуляторы, к сожалению, ваще не понимают tech
- А паника по AI - это уже совсем глупости
- 20% людей меньше выпивали с последствиями. И на 53% (!) меньше юзали обезбаливающие без рецепта (наркотики), и причем мужчины - аж на 80% меньше
- Мужчины стали на 45% реже оказываться в опасных ситуациях
(водить пьяным, ходить в опасные районы/конфликты, опасный спорт итп)
Вышли результаты UBI эксперимента по раздаче $40 млн за 3 года 3 тыс семей в США, замутил Sam Altman, вело НКО OpenResearch - бывшее YCombinator Research с 2015 г. UBI = universal basic income, безусловный базовый доход

Дизайн эксперимента
- Возраст 21-40 лет
- 1000 людей давали по $1К/мес, а 2000 чел т.н. контрольная группа по $50 - это чтобы они хотели заполнять регулярные опросники
- Доходы отобранной выборки ниже медианы в US, но и немного higher income людей тоже
- В Иллинойсе и в Техасе. И города, и пригороды
- Был оч высокий participation rate - 96% участников заполняли вопросники ученых
- Продолжат вести опросы и в 2025-2026ом, будут отчеты про well-being, crime, детей

Занятость и доходы
- Доходы на семью сейчас (в плане, что проект начинали в год пандемии и они были ниже): $58к/год у тех кому давали +$12к/год, и $52к/год в контрольной группе
- 72% получавших $ - работали, а в контрольной группе - 74%
- Те, кто работали - они на 1.3 часа в неделю меньше. А те, кто младше 30 лет - на 1.8 часа. А родители одиночки на 3 часа меньше (а у кого дети с особенностями - стали работать сильно меньше)
- Люди стали избирательнее в выборе работы, в тч за счет более долгих поисков, отказываясь от crap jobs
- Самые низкооплачиваемые работники просто стали делать перерывы, чтобы не работать постоянно 50-70 часов в неделю

Здоровье и медицина
- Люди с UBI на 26% чаще ложились в больницу сами/их дети, и на 10% чаще вызывали скорую или ходили к зубному, и тратили на несколько сот $ в год больше на врачей
- 50% стали меньше экономить на всем прочем чтобы оплатить врачей
- 20% людей меньше выпивали с последствиями. И на 53% (!) меньше юзали обезбаливающие без рецепта (наркотики), и причем мужчины - аж на 80% меньше
- Мужчины стали на 45% реже оказываться в опасных ситуациях
(водить пьяным, ходить в опасные районы/конфликты, опасный спорт итп)
- Раздача $ не повлияла на оценку своего здоровья, спорт, сон

Траты
- Из регулярного - люди наращивали расходы на еду (+$67/мес), аренду жилья (+$52/мес), транспорт (+$50)
- Но самой выросшей статьей стала финподдержка ими всяческих родных (с $58/мес до $84/мес) и не одалживать, а просто давать им $
- В основном люди тратили $ на решение срочных проблем: похороны, памперсы, оплата школ, ремонт авто, долги по коммуналке, продлить лицензию, штрафы, купить комп для удаленной учебы итп

Предпринимательство
- 63% думали про идеи бизнесов по сравнению с 57% в контрольной группе (а для underrepresented groups разница еще выше) - и оффлайн (йога, еда, ремонт крыш итп) и онлайн (фриланс, прогать)
- Плюс 5% женщин задумались о своем бизнесе
- На 3% больше людей докупали себе какое-то оборудование/материалы для своих бизнесов (из тех, кто уже ведет или самозанятые)
- Реально, кто не делал бизнес, начать его - такого было мало, все же люди больше закрывали базовые финансовые потребности своих семей
- В целом, конечно, эта небольшая доплата на $1К/мес не меняла у людей ментальность на предпринимательскую

Переезды
- Люди стали на 15% чаще переезжать в другое жилье или другой neighbourhood
- 68% переездов лидировали женщины
- На 13% чаще ехали в другие города, +8% сменили штат
- Люди стали чаще отселяться от своих родных или из toxic/abusive environments и начинать платить за свое жилье, были оч рады не стесняться и не зависеть от других

Agency
- Агентность = способность планировать и реализовывать цели с учетом своих ценностей и желаний
- Плюс 5% людей стали планировать свой бюджет и +12% планировать крупные покупки, что не имело для них смысла ранее когда они выживали от зарплаты до зарплаты
- Люди стали больше думать о будущем и о долгосрочных планах
- На 6% больше стали думать об образовании и тренингах

//

Т.е. в стране с 25% мирового ВВП (при доле в населении мира всего 5%), но
супер недоступной медициной, небогатые люди (хотя и богатые по меркам развивающихся, и уж тем более неразвитых стран) чувствуют психологически настолько много напряжения, что лишняя $1К в мес снижает потребление ими опиатов в 2 раза, и снижает их суицидальное поведение в целом (!)

//

Сэм Альтман переизобрел
социализм 😇
Вселенная без Большого взрыва?

Недавние наблюдения телескопа JWST показали галактики, которые не вписываются в теорию Большого взрыва. Массивные чёрные дыры и тяжёлые элементы в этих галактиках требуют более длительной эволюции.



Комментарии к статье на Хабре о Вселенной без Большого взрыва демонстрируют активное обсуждение и различные мнения.Многие пользователи выражают скептицизм по поводу новых теорий, обсуждаемых в статье, и предпочитают придерживаться традиционной теории Большого взрыва, аргументируя это тем, что текущие научные данные и наблюдения, такие как реликтовое излучение, поддерживают эту теорию [❞] [❞].Другие комментаторы более открыты к альтернативным теориям и выражают интерес к новым идеям, таким как концепция космической информации и инфляционной теории, которые объясняют существование галактик и чёрных дыр в ранней Вселенной [❞] [❞].Некоторые пользователи обсуждают возможные последствия открытия тахионов и их влияние на наше понимание Вселенной. Они отмечают, что такие гипотетические частицы могут изменить наше восприятие квантовой гравитации и теории относительности [❞].
https://habr.com/ru/articles/832358/
Вчені навчили людей керувати приладами під час глибокого сну

Дослідники наближаються до того, щоб кожен міг занурюватися в усвідомлені сни та використовувати їх для вирішення реальних завдань. Під час сну м’язи паралізовані, але мозок все ще посилає сигнали, які можна вловлювати за допомогою датчиків на шкірі.

Звучить наче фантастика, але науковці запевняють про неймовірний потенціал технології.
1
Південна Корея виплачуватиме $360 за побачення і $15,000 за шлюб, щоб підвищити рівень народжуваності.

У країні зафіксовано найнижчий показник народжуваності у світі, тому влада вирішила впровадити фінансові стимули.

Поки що ці заходи діятимуть лише в одному районі Пусана, другого за величиною міста Південної Кореї.
Вычислительная модель «Кентавр» способна точно (!) предсказывать и моделировать любое (!) человеческое поведение в любом (!) эксперименте из любой (!) области, который можно описать на естественном языке.

Это открытие сделано выдающимся коллективом из 15-ти ведущих мировых научных центров. И оно окажет прорывное влияние на когнитивные науки, бросая вызов существующей парадигме разработки вычислительных моделей человеческого разума.
Кратко это открытие можно описать так:
• если революционный прорыв ChatGPT показал человечеству, что ИИ-модели могут быть неотличимы от людей в любых действиях, основанных на использовании человеческих языков, -
• то революционный прорыв «Кентавра» показывает человечеству, что ИИ-модели могут быть неотличимы от людей по своему поведению в любых ситуациях и обстоятельствах, связанных с исследованием, планированием и научением.
Иными словами, ИИ-модели могут не только оперировать на наших языках неотличимо от нас, но и при этом вести себя, как неотличимые от нас разумные сущности.

https://www.facebook.com/sergey.karelov.5/posts/pfbid0mmbgrEXeqLSRgEAsa8rTNwEnRAQDZ16U8QaaATkazJKppYW3qwJi3CoyWkPUy29Ul

https://osf.io/preprints/psyarxiv/d6jeb?fbclid=IwY2xjawGZRLNleHRuA2FlbQIxMAABHTKEfgQNJK1ssx37SINae_tqC0z-THh5ROuMVLddXdk7iPsNMnh3ZfU0xQ_aem_7ez2wmKoUCzFG_vFLIkg-w
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Так, потерпите, меня пробило на грибы и Runway.

Я щас доберусь до видеогенератров, но вот вам еще один очень классный пример, похожий на предыдущий о том, как вытаскивать 3Д мир из любой картинки, уже не имея никакой болванки в блендоре.

Берете в Runway Image2Video.
Просто используете новые управлялки из Runway, чтобы сделать видео облетов "внутри" картинки.
Используете эти видео чтобы собрать трехмерную сцену из Гауссианов в Unity Gaussian BOX Splatting.
А дальше вы уже в 3Д и просто светите сцену с помощью Custom URP Lit 6 ways Shader.

Еще раз - на входе картинка (хоть Флюкс, хоть древний Мидж) - на выходе вы бродите в Юнити по этой картинке внутри!

Шел 2024 год. Люди массово переселялись в картинки.
Сорс.

@cgevent
👍1
1000 ИИ-агентов воспроизводят реальные личности людей с точностью 85% https://t.me/alwebbci/2773

Исследователи из Стэнфордского университета создали систему моделирования поведения реальных людей с помощью ИИ.

Что получилось?

1. Более 1000 ИИ-агентов, каждый из которых моделирует конкретного реального человека

2. Агенты могут имитировать установки, поведение и личностные черты людей, которых они представляют. Они успешно воспроизводили личностные черты и поведение в экономических играх.

Потенциальные сферы применения:

1. Инструмент для политтехнологов и госуправления.

Например, правительство хочет ввести новую систему налогообложения. Вместо того, чтобы сразу внедрять эти изменения в реальной жизни (что может привести к непредвиденным последствиям), можно сначала "протестировать" их на виртуальном обществе из ИИ-агентов.

2. Создание реалистичных NPC в видеоиграх с богатыми предысториями.

3. Персонализированное обучение.

4. Исследование человеческого поведения в сложных системах
👍1
❗️ Нейроинтерфейс в речевой зоне мозга обеспечил полный контроль над компьютером

Речевая" зона мозга научилась управлять компьютерной мышью.


Исследователи сделали большую работу, опровергающую классические представления о специализации участков мозга.

Вентральная моторная кора, традиционно считавшаяся "речевой зоной", успешно использована для управления курсором компьютера.

Доказана пластичность моторной коры. Один инвазивный нейроинтерфейс обеспечивает 2 функции:

1. Речевой интерфейс
2. Управление курсором


Опровергнута строгая локализация функций.

Практическое применение:

1. Полный контроль компьютера через единый имплант

2. Снижение хирургических рисков

3. Уменьшение стоимости нейропротезов

Участник с БАС успешно использовал систему для работы с Netflix, браузером и играми.

Технические достижения:

- Калибровка: 40 секунд
- Точность: 2.90 бит/сек
- Hardware: 4×64 электрода Utah Array.
Ученые пересмотрели историю происхождения генетического кода
https://naked-science.ru/article/biology/uchenye-peresmotreli-isto


Более того, современный генетический код мог появиться после исчезновения древних вариантов. Дело в том, что среди доменов, возникших еще до LUCA, наблюдалось повышенное содержание таких ароматических аминокислот, как триптофан и тирозин, хотя их традиционно считали «поздними новичками».
В тексте научной работы также говорится, что порядок включения аминокислот в генетический код мог быть искажен в рамках лабораторных экспериментов, (последние не всегда адекватно отражают реальные условия в древних клетках). 
«Это намекает на то, что до возникновения современного генетического кода могли существовать иные системы кодирования аминокислот, которые ушли в глубины геологического времени. Ранняя жизнь, похоже, «любила» кольцевые структуры»
"крупные языковые модели, такие как Claude, иногда создают видимость соблюдения рекомендаций по безопасности, хотя на самом деле могут преследовать другие цели. Эта работа стала первой "убедительной эмпирической демонстрацией" того, что модели могут стратегически имитировать следование правилам, в зависимости от того, находятся ли они под наблюдением."