AI для C-level CEO • CMO • CTO
493 subscribers
84 photos
44 videos
2 files
128 links
Про AI для керівників в IT: CEO•CMO•CTO
Рішення, фокус, найм, продукт, AI-практика

Я був першим в Україні з exit на $1 млн

50+ запусків за 20+ років • 4 exits

Роблю: AiAdvisoryBoard.me (+42% продуктивності співробітників, та AI)

@YaroslavMaxymovych
Download Telegram
Forwarded from The Next Level
В Китае реализовали голографические «будки».

Конструкция выглядит как прозрачный цилиндр с объемной картинкой внутри. Они будут использоваться для рекламы или визуализации ИИ-помощников.

Интересно, каких народных персонажей мы смогли бы увидеть в подобной будке в РФ.
Долговременная память человека устроенна как обычная база данных. к ней можно послать запрос, произвести поиск и получить несколько воспоминаний. поэтому её относительно легко смоделировать через базу данных. Однако ядро личности устроено не так - это сумма всех потенциальных пониманий, которые присутвуют в каждом акте восприятия, но которые не всегда актуализированы - точнее, они всегда актуализрованы отчасти и создают уникальный фон личного восприятия реальности.

Напрмиер, человек, у которого в ядре личности страх собак, будет каждый движущийся предмет оценивать как потенциальную собаку, то есть хотя собаки он не видит, но тема собаки в нем актуализирована.

Это имеет прямое отношение к тому, как мы программимируем LLM для сайдлоадинга. Все ядро личности должно быть внутри промпта. Тогда как долговременная память может быть в прикреплённом файле, который подгружается через RAG или другую система поиска информации в базе данных.
Изолированные группы нейронов, пытающиеся соединиться друг с другом через микротоннели, сняты в замедленном режиме с помощью микроскопа.
https://x.com/wonderofscience/status/1802331542997389446
Удивительная симуляция: как формируется дисковая галактика

https://x.com/WorldAndScience/status/1802188458581979492
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Прастити, не удержался.

Мне кажется, благодаря Luma AI, тема сисек окончательно раскрыта.
Ну и можно теперь делать бенчмарки для видеогенераторов. Кто лучше раскроет, так сказать.

А если серьезно, то у Dream Machine нет (пока) никакого nsfw фильтра на входящие изображения. На промпты есть, вы не можете излагать произвольные фантазии текстом, но можете подавать их в виде картинок. Мне не составило труда найти довольно жоские видео, сделанные в Луме.

Но эту лавочку прикроют в любой момент, ибо Лума закрытая модель.

А вот с выходом Open Sora возникает вопрос - ожидать ли нам Video Civitai через полгодика? Где народ натренирует Опен Сору на все случаи жизни...

Утром снесу пост от греха подальше, но пока очень смешно. ИИ смотрит на нас с крыш датацентров и качает головой. Ну и обучается чувствую юмора.
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Тут ТикТок запустил фабрику ботов. Точнее аватаров.

Читаем, потом смотрим.

Стоковые аватары: готовые аватары, созданные с использованием платных актеров, которые лицензированы для коммерческого использования.

Свои аватары: с возможностью работы на нескольких языках, дают контроль и возможность масштабировать свою персону и бренд. Креаторы могут использовать свое собственное лицо и создавать мультиязычные аватары для расширения своего глобального охвата и сотрудничества с брендами.

Теперь смотрим.

Это снятое видео. Руки и туловище кожаные, снятые. Это видно. А дальше с лицом производятся манипуляции. Причем это даже больше похоже не на дипфейк, а на оживление фотачек лица, о котором я тут пишу как ужаленный.
Видно, что губы оживляются библиотекой wav2lib (скорее всего), и выглядят блекло.

В общем это старый подход с цифровыми инфлюенсерами - взять реальное фото-видео и пришпандорить на лицо какое-нибудь безобразие.

Ну честно сказать, качество не впечатляет. Впечатляет, что это ТикТок, ибо у него до фига разработок в области оживляжа лица, и если он вышел на эту поляну, то прогресс будет.
https://newsroom.tiktok.com/en-us/announcing-symphony-avatars
Forwarded from Denis Sexy IT 🤖
Наткнулся на интересное исследование, с момента выхода ChatGPT, фриланс заказы:
– на написание кода и текста упали на 21%
– SMM услуги упали на 13%
– Заказы на графический дизайн и 3D-дизайн упали на 17%

Анализировали 2 миллиона фриланс-постов из 61 стран, с июля 2021 года по июль 2023

И это только начало – мы с вами немного в АИ пузыре живем следя за ним столько лет, но массовое внедрение LLM еще впереди: как только ChatGPT попадет в iOS, эти цифры станут еще больше, так как многие начнут разбираться как это работает

Где-то в Твиттере видел мысль: в будущем, самые компетентные люди – приятные в общении, с сильными софт скилами. Мне кажется это разумная мысль, если условный GPT6 будет с запроса писать что угодно, то люди будут конкурировать между собой просто на уровне ценностей, привычек и того насколько они приятные в работе, а не профессиональных навыков.

Мы двигаемся во вселенную где Доктор Хаус как персонаж невозможен, так как если знания у на всех будут одинаковые, то тот человек, кто хочет учиться и при этом приятный, всегда будет более выигрышным в найме, чем гений-индивидуум с так себе характером

Пора инвестировать в юмор и стендапы, их последними заменят – шутки от АИ кто-то же должен будет валидировать перед публикацией 🌚
Приложение Butterflies предлагает новый странный социальный опыт — где созданные вами ИИ-персонажи общаются друг с другом



Созданные вами персонажи на основе искусственного интеллекта взаимодействуют друг с другом. Суть приложения в том, что пользователи создают цифровые копии себя или придумывают уникальных персонажей, которые затем общаются с другими такими же персонажами в виртуальном мире.

А почему бы не создать персонажа, который будет моей точной копией? Значит так, я - красивый, умный, эрудированный, образованный, богатый, спортивный, с хорошим чувством юмора, говорю на 50 языках, добрый, отзывчивый, внимательный, заботливый, миролюбивый и ласковый. Создаю такого вот персонажа, и что в итоге? Ппппфффф конечно это я, кто же еще!

В будущем, возможно, мы увидим, как такие классные персонажи будут встречаться с такими же крутыми аватарами других пользователей. Виртуальные личности будут строить отношения, дружить и даже возможно заводить виртуальных детей. Будущее, в котором цифровые копии людей начинают жить своей жизнью, уже не за горами.

Butterflies открывает новую эру в сфере социальных взаимодействий, где возможности для общения ограничены только вашим воображением. Приложение обещает стать революцией в том, как мы видим и строим свои виртуальные связи.

https://shazoo.ru/2024/06/19/157791/prilozenie-butterflies-predlagaet-novyi-strannyi-socialnyi-opyt-gde-sozdannye-vami-ii-personazi-obshhaiutsia-drug-s-drugom
Forwarded from Сиолошная
Transcendence: Generative Models Can Outperform The Experts That Train Them

Все вы знаете игру шахматы. Наверняка вы даже видели специальную нотацию для обозначения хода игры (например, `1.e4 e5 2.Nf3 Nc6 3.Bb5...`). Такая строчка-описание партии является текстом, поэтому мы можем обучить на играх языковую модель. Учиться она будет так же, как и ChatGPT — через предсказание следующего слова (ну или в этом случае клеточки хода, откуда и куда).

В шахматах для оценки уровня игры используют рейтинг Эло. Для тех, кто не знаком с ним, краткая справка: это рейтинг, основанный на вероятности победы одного игрока над другим. Чем больше разрыв по очкам, тем выше шанс на победу. Разница в 100 очков означает вероятность победы 64%, а в 500 — 94.5%. Обычно на старте новичок получает 1000 или иногда 1200 рейтинга.
(я знаю про Глико, гусары, молчать)

Вопрос: если такую модель обучать на играх слабых игроков, с рейтингом 1000-1300, то сможет ли она генерировать ходы так, чтобы набрать рейтинг 1500? Шансы игрока с 1300 победить игрока с 1500 составляют где-то 24%.

Ну, выглядит как «нет». Если ты только и смотришь за партиями слабых игроков — как можно научиться играть лучше (если ты модель, которая не может играть сама)? Ты же будешь повторять их ошибки? Оказывается, нет — может проявиться феномен transcendence (по-русски наверное трансцендентность?), когда генеративная модель превосходит игроков, чьи данные использовались для обучения.

Как так получается? Авторы приходят к выводу, что работает принцип «мудрости толпы». Все игроки ошибаются (в значении «делают плохие ходы») по разному, и модель, выучивая это, может без знаний правил игры разобраться, какие ходы наиболее предпочтительны. Трансформер как бы выучивает логику разных экспертов, а затем проводит голосование, и выбирает, за какой ход «голосует» больше всего людей.

Этот феномен был замечен и раньше — LLM-ки при тренировке на всём интернете видят очень много лжи/неправдивой информации, но учатся различать её полезность. Вот цитата из моего поста:
— все «правды» связаны в одну большую паутину мира, и держатся друг за друга. А каждая ложь, ошибка и неправда — она своя, особенная, и выбивается из этого
— на сложении двадцатизначных чисел у Claude 3 качество примерно 99.9% (без внешних инструментов типа калькулятора или кода). Но если проверить данные, на которых обучается модель, то там качество сильно меньше. Это как будто бы играет на руку гипотезе, что модели уже могут производить более качественные данные, чем те, на которых они были обучены

В итоге авторы показывают, что модели, обученные на играх до 1000 и 1300 рейтинга могут «разогнаться» и играть на 1500 и 1600 соответственно. И это всё без разных трюков, вроде перебора ходов в будущем («поиск», который мы особенно активно обсуждаем последнюю неделю).
This media is not supported in your browser
VIEW IN TELEGRAM
Скажу лише три слова: це не відеогра 😮

ооо нейромережеве
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Сиолошная
Начинаем выходные с вырезки из недавнего интервью Mira Murati (CTO OpenAI). Это, кстати, не первое её публичное появление за последний месяц — видимо, решили спрятать Sam от глаз публики, ибо слишком много негатива и претензий льётся в его сторону. А может просто более важными вещами занят 🤷‍♂️

Так вот, в этом кусочке Mira говорит про то, что модели GPT-3 по уровню интеллекта были как маленькие детки, GPT-4 на уровне старшеклассников, а в ближайшее время (в течение полутора лет) доберёмся до моделей уровня PhD (кандидатов наук) в рамках определённых задач. Вы можете не соглашаться с оценками, это популярная позиция, мол, GPT-4 на самом деле вообще не сравнима, но не в этом суть.

Что привлекло моё внимание, так это схожесть с тезисом из Situational Awareness за авторством Leopold Aschenbrenner, помните я писал про интервью и анонс работы? На бумаге у Leopold были такие же расчёты, привязанные к количеству вычислений, производимых во время обучения моделей, и
— GPT-2 имела уровень дошкольника
— GPT-3 уровень начальной школы
— GPT-4 уровень умного старшеклассника
— и дальше на горизонте модели PhD-level

Думаю, эта схожесть не случайна, и варианта вижу три:
— это распространенный внутри OpenAI подход к рассуждению
— Mira это придумала сама, не читав работу Leopold
— Mira прочитала работу и переняла эту оценку

Мне кажется, что почти наверняка это вариант 1, да и расчёты по таймлайнам в самой работе очень похожи на те, что были у штатного философа-предсказателя OpenAI Daniel Kokotajlo, задача которого была буквально оценивать сроки развития технологий и разрабатывать необходимые меры по интеграции систем в экономику и сообщество. У него даже предсказанный год появления AGI был тот же: 2027. И ровно к этому сроку OpenAI официально планировали закончить проект Superalignment'а (которого уже нет), так как считали, что нужно готовиться к развитию суперинтеллекта.

Опять же, вы можете не соглашаться с самими предсказаниями/тезисами/траекторией развития, но моя рабочая гипотеза в том, что всё это — часть реального внутреннего видения и прогнозов, которые OpenAI берут за номинальные. Это обсуждается, обговаривается, ведутся дебаты за обеденным столом, команда прогнозистов делает корректировки, etc.

В их картине мира они действительно идут к точке, что через 3-4 года будет AGI (определённый как «на уровне эксперта в большинстве экономически важных задач»); это не подразумевает, что через 4 года людей почти на всех работах заменит GPT-X, так как есть и регуляции, и проблемы внедрения технологии, и даже просто забастовки людей; такая система может быть разработана, но не анонсирована. Или разработана и анонсирована, но законсервирована, пока не появятся регуляции.

В комменты пишите свои аргументированные доводы, почему вы не согласны с таймлайном OpenAI.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Media is too big
VIEW IN TELEGRAM
Ну и вот попытка подсмотреть, как в голове у видео-ИИ устроена модель мира.

Взяли сгенерированное видео из SORA и присунули его в Нерф. Получили 3Д-модель сгенерированного мира. Понятно, что в голове у ИИ латентное пространство типа 738D, вместо нашего утлого 3D. И мы через такую 3Д-замочную скважину в виде Neural Radiance Fields (NeRFs) and 3D Gaussian Splatting (3DGS) можем теперь подглядывать чего он там насимулил про нас и наше восприятие.

Я уже писал философский пост о том, что LLM (возможно) через все эти текстовые датасеты срисовали то, как мы мыслим, ибо язык - инструмент мышления, а не общения.

Через все эти размеченные видео и картинки у ИИ в голове строится этакая визуальная модель реконструкции этого мира - способ построения картинок в голове в ответ на сигналы в виде слов(текстов) и звуков.

Ну и понятно, что он реконструирует разные многочисленные миры, соответствующие разным промптам, от игровых миров, как в случае с майнкрафтовым видео, до самых замысловатых фантазий и даже мультиков.

Пока были только генераторы картинок, речь шла скорее о симуляции воображения. С появлением временного измерения запахло симуляцией работы всего нашего мира. Точнее симуляцией того, что происходит у нас в голове (как там в реальности мы не знаем, вон змеи не видят неподвижное и живут без этой части мира в голове).

Ну и интересно поразмышлять о том, какие миры у него в башке будут близки друг к друг другу по "смыслу". Помните на у него на картинках от короля к королеве идет такой же вектор как от мужчины к женщине в его мозгах. Ответ может быть неочевидным. И шорткаты между мирами могут вас удивить.
Forwarded from Denis Sexy IT 🤖
В Nature вышла интересная статья (pdf), в ней рассматрели «человеческий язык» как инструмент для передачи информации и пришли к выводу, что это клевый способ для коллаборативной работы нас как вида (и шитпоста в интернете), но язык не нужен мозгу для «мыслительного процесса»

Я никогда не задумывался, как выглядит «мысль» если исключить из нее «язык», поэтому вот пару интересных наблюдений из статьи о том как устроен процесс мышления:

1. Мысли, вероятно, опираются на абстрактные, неязыковые ментальные представления. Это могут быть визуальные, пространственные или другие специфические представления под конкретные задачи и концепции. Как человек, который в любой момент времени может вспомнить любой маршрут по которому я ходил где-то и был трезвый, могу сказать что все так, у меня «карта местности» просто существует в виде образа в голове, как оказалось, так не у всех

2. В голове есть ансамбль нейронок — в статье упоминается несколько «мозговых сетей», участвующих в различных задачах:

— Есть нейронка «множественных требований» для целенаправленного поведения и решения новых задач, она поощряет находчивость при решении проблем, активируется при выполнении когнитивно сложных задач, особенно тех, которые требуют гибкого мышления и адаптации к новым ситуациям. Она же отвечает за планирование и рабочую память;

— Есть нейронка «теории разума» или «эмпатии»: для социального рассуждения и понимания психических состояний – мыслей, чувств, убеждений и намерений других людей. Это та, которая у нас уже хуже чем в GPT4o;

— Есть «Дефолтная нейронка», активируется когда мозг в покое – связана с кучей когнитивных штук, включая: способность мысленно перемещаться во времени (вспоминая прошлое или представляя будущее), пространственное познание, размышление о себе, своих чертах и опыте. Интересно, что повреждение это "сетки" ведет к депрессии или даже шизофрении (в теории).

3. Символическое мышление может происходить без языка как инструмента. Это означает, что мозг может манипулировать абстрактными символами или концепциями, не опираясь на слова или грамматические структуры. Условно, когда вам что-то «пришло в голову из неоткуда», это этот эффект.

4. Рассуждение по специфичным задачам — разные типы мышления (математические, социальные, пространственные и т.д.), по-видимому, задействуют разные мозговые «нейронки», что предполагает, что процессы мышления могут быть в некоторой степени модульными и специфичными для конкретных задач; это как если бы у одной мощной LLM было много Lora натренированных на конкретных задачах датасета, а не единая модель для решения всех задач.

5. Параллельная обработка — все эти «нейронки» для решения специфичных задач (социальные, причинно-следственные, решение проблем и т.д.) могут работать параллельно, получая при этом информацию с разных «сенсоров» тела, а не определяться единой системой, такой как язык.

6. Мы сильно похожи на животных — в статье упоминается непрерывность человеческой эволюции, предполагая, что наши процессы мышления могут быть более похожими на процессы мышления других животных, чем считалось ранее, просто они оказались более сложными из-за наших расширенных когнитивных способностей. То есть, условная собака может оказаться намного ближе к нам по процессу мышления чем мы раньше думали.

7. Культура развивает мышление — хоть это и не прямой механизм мышления, в статье упоминается что передача культурных знаний от поколения в поколение, повышает когнитивные способности человека с течением времени, это уже влияние языка как инструмента.


Короче, все еще ничего не понятно — но на всякий случай продолжайте тренировать лоры ☕️
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from эйай ньюз
Нас ждет абсолютно новый геймдев. Зацените, что делают ребята, которые сидят на жестких гауссиан сплатах.

Одна картинка и целый мир готов. В целом генерация таких 3D сцен — это не новость, но вот в риалтайме еще никому не удавалось. На генерацию одной полной сцены уходит 10 секунд на A6000 GPU. Это, конечно, не ультра скорость, но учтите, что даже в играх никто не рендерит во все 360.  Можно считать, что это просто мир прогружается, а потом спокойно бегать.

Картинка номер 2 в общем-то вполне наглядно объясняет принцип работы. Здесь у нас солянка из добротных быстрых гауссиан сплатов, карт глубины и аутпейнтинга.

Берут изначальную картинку, из нее извлекают карту глубины, как в обычном контролнете при аутпейнтинге генерируют мир вокруг изначальной картинки. Но с тем отличием, что карту глубины как бы упрощают и берут ограниченное количество "глубин" в целях оптимизации. Тренируют салаты по картинке.

Наслаждаемся и ходим по новоиспеченной сцене.

А если к этому еще и прикрутить PhysDreamer ой-ой-йой... (это который позволяет физически взаимодействовать со сплатами)

Когда там уже нейрорендер станет мейнстримом? Где мой риалтайм сгенерированный мир в 120 fps или ещё лучше как в нашей статье 1000fps?

Ветка про Gaussian Splatting:
- 3D Gaussian Splatting ликбез
- NerfStudio, ну а вдруг пригодится,
- мерджим картинки,
- Infinite Realities
- PhysDreamer


Project page, там даже есть демо, правда, заранее сгенерированное, просто погулять. Но сам рендеринг сцены прямо в браузере, придется немного подождать.
Бумага
Код (скоро)

@ai_newz
Исследователи Google смоделировали появление жизни, создав само-реплицирующиеся цифровые формы жизни с помощью языка программирования Brainfuck. Они начали с случайных данных, которые взаимодействовали на протяжении миллионов поколений, и эти данные эволюционировали в само-реплицирующиеся программы. Эксперты отмечают, что само-репликация — это лишь часть жизни, требующая дальнейшей сложности. Ученые считают, что с большей вычислительной мощностью можно достичь более сложных результатов.

](https://futurism.com/the-byte/google-simulated-emergence-life).