AI для C-level CEO • CMO • CTO
490 subscribers
84 photos
44 videos
2 files
128 links
Про AI для керівників в IT: CEO•CMO•CTO
Рішення, фокус, найм, продукт, AI-практика

Я був першим в Україні з exit на $1 млн

50+ запусків за 20+ років • 4 exits

Роблю: AiAdvisoryBoard.me (+42% продуктивності співробітників, та AI)

@YaroslavMaxymovych
Download Telegram
Изолированные группы нейронов, пытающиеся соединиться друг с другом через микротоннели, сняты в замедленном режиме с помощью микроскопа.
https://x.com/wonderofscience/status/1802331542997389446
Удивительная симуляция: как формируется дисковая галактика

https://x.com/WorldAndScience/status/1802188458581979492
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Прастити, не удержался.

Мне кажется, благодаря Luma AI, тема сисек окончательно раскрыта.
Ну и можно теперь делать бенчмарки для видеогенераторов. Кто лучше раскроет, так сказать.

А если серьезно, то у Dream Machine нет (пока) никакого nsfw фильтра на входящие изображения. На промпты есть, вы не можете излагать произвольные фантазии текстом, но можете подавать их в виде картинок. Мне не составило труда найти довольно жоские видео, сделанные в Луме.

Но эту лавочку прикроют в любой момент, ибо Лума закрытая модель.

А вот с выходом Open Sora возникает вопрос - ожидать ли нам Video Civitai через полгодика? Где народ натренирует Опен Сору на все случаи жизни...

Утром снесу пост от греха подальше, но пока очень смешно. ИИ смотрит на нас с крыш датацентров и качает головой. Ну и обучается чувствую юмора.
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Тут ТикТок запустил фабрику ботов. Точнее аватаров.

Читаем, потом смотрим.

Стоковые аватары: готовые аватары, созданные с использованием платных актеров, которые лицензированы для коммерческого использования.

Свои аватары: с возможностью работы на нескольких языках, дают контроль и возможность масштабировать свою персону и бренд. Креаторы могут использовать свое собственное лицо и создавать мультиязычные аватары для расширения своего глобального охвата и сотрудничества с брендами.

Теперь смотрим.

Это снятое видео. Руки и туловище кожаные, снятые. Это видно. А дальше с лицом производятся манипуляции. Причем это даже больше похоже не на дипфейк, а на оживление фотачек лица, о котором я тут пишу как ужаленный.
Видно, что губы оживляются библиотекой wav2lib (скорее всего), и выглядят блекло.

В общем это старый подход с цифровыми инфлюенсерами - взять реальное фото-видео и пришпандорить на лицо какое-нибудь безобразие.

Ну честно сказать, качество не впечатляет. Впечатляет, что это ТикТок, ибо у него до фига разработок в области оживляжа лица, и если он вышел на эту поляну, то прогресс будет.
https://newsroom.tiktok.com/en-us/announcing-symphony-avatars
Forwarded from Denis Sexy IT 🤖
Наткнулся на интересное исследование, с момента выхода ChatGPT, фриланс заказы:
– на написание кода и текста упали на 21%
– SMM услуги упали на 13%
– Заказы на графический дизайн и 3D-дизайн упали на 17%

Анализировали 2 миллиона фриланс-постов из 61 стран, с июля 2021 года по июль 2023

И это только начало – мы с вами немного в АИ пузыре живем следя за ним столько лет, но массовое внедрение LLM еще впереди: как только ChatGPT попадет в iOS, эти цифры станут еще больше, так как многие начнут разбираться как это работает

Где-то в Твиттере видел мысль: в будущем, самые компетентные люди – приятные в общении, с сильными софт скилами. Мне кажется это разумная мысль, если условный GPT6 будет с запроса писать что угодно, то люди будут конкурировать между собой просто на уровне ценностей, привычек и того насколько они приятные в работе, а не профессиональных навыков.

Мы двигаемся во вселенную где Доктор Хаус как персонаж невозможен, так как если знания у на всех будут одинаковые, то тот человек, кто хочет учиться и при этом приятный, всегда будет более выигрышным в найме, чем гений-индивидуум с так себе характером

Пора инвестировать в юмор и стендапы, их последними заменят – шутки от АИ кто-то же должен будет валидировать перед публикацией 🌚
Приложение Butterflies предлагает новый странный социальный опыт — где созданные вами ИИ-персонажи общаются друг с другом



Созданные вами персонажи на основе искусственного интеллекта взаимодействуют друг с другом. Суть приложения в том, что пользователи создают цифровые копии себя или придумывают уникальных персонажей, которые затем общаются с другими такими же персонажами в виртуальном мире.

А почему бы не создать персонажа, который будет моей точной копией? Значит так, я - красивый, умный, эрудированный, образованный, богатый, спортивный, с хорошим чувством юмора, говорю на 50 языках, добрый, отзывчивый, внимательный, заботливый, миролюбивый и ласковый. Создаю такого вот персонажа, и что в итоге? Ппппфффф конечно это я, кто же еще!

В будущем, возможно, мы увидим, как такие классные персонажи будут встречаться с такими же крутыми аватарами других пользователей. Виртуальные личности будут строить отношения, дружить и даже возможно заводить виртуальных детей. Будущее, в котором цифровые копии людей начинают жить своей жизнью, уже не за горами.

Butterflies открывает новую эру в сфере социальных взаимодействий, где возможности для общения ограничены только вашим воображением. Приложение обещает стать революцией в том, как мы видим и строим свои виртуальные связи.

https://shazoo.ru/2024/06/19/157791/prilozenie-butterflies-predlagaet-novyi-strannyi-socialnyi-opyt-gde-sozdannye-vami-ii-personazi-obshhaiutsia-drug-s-drugom
Forwarded from Сиолошная
Transcendence: Generative Models Can Outperform The Experts That Train Them

Все вы знаете игру шахматы. Наверняка вы даже видели специальную нотацию для обозначения хода игры (например, `1.e4 e5 2.Nf3 Nc6 3.Bb5...`). Такая строчка-описание партии является текстом, поэтому мы можем обучить на играх языковую модель. Учиться она будет так же, как и ChatGPT — через предсказание следующего слова (ну или в этом случае клеточки хода, откуда и куда).

В шахматах для оценки уровня игры используют рейтинг Эло. Для тех, кто не знаком с ним, краткая справка: это рейтинг, основанный на вероятности победы одного игрока над другим. Чем больше разрыв по очкам, тем выше шанс на победу. Разница в 100 очков означает вероятность победы 64%, а в 500 — 94.5%. Обычно на старте новичок получает 1000 или иногда 1200 рейтинга.
(я знаю про Глико, гусары, молчать)

Вопрос: если такую модель обучать на играх слабых игроков, с рейтингом 1000-1300, то сможет ли она генерировать ходы так, чтобы набрать рейтинг 1500? Шансы игрока с 1300 победить игрока с 1500 составляют где-то 24%.

Ну, выглядит как «нет». Если ты только и смотришь за партиями слабых игроков — как можно научиться играть лучше (если ты модель, которая не может играть сама)? Ты же будешь повторять их ошибки? Оказывается, нет — может проявиться феномен transcendence (по-русски наверное трансцендентность?), когда генеративная модель превосходит игроков, чьи данные использовались для обучения.

Как так получается? Авторы приходят к выводу, что работает принцип «мудрости толпы». Все игроки ошибаются (в значении «делают плохие ходы») по разному, и модель, выучивая это, может без знаний правил игры разобраться, какие ходы наиболее предпочтительны. Трансформер как бы выучивает логику разных экспертов, а затем проводит голосование, и выбирает, за какой ход «голосует» больше всего людей.

Этот феномен был замечен и раньше — LLM-ки при тренировке на всём интернете видят очень много лжи/неправдивой информации, но учатся различать её полезность. Вот цитата из моего поста:
— все «правды» связаны в одну большую паутину мира, и держатся друг за друга. А каждая ложь, ошибка и неправда — она своя, особенная, и выбивается из этого
— на сложении двадцатизначных чисел у Claude 3 качество примерно 99.9% (без внешних инструментов типа калькулятора или кода). Но если проверить данные, на которых обучается модель, то там качество сильно меньше. Это как будто бы играет на руку гипотезе, что модели уже могут производить более качественные данные, чем те, на которых они были обучены

В итоге авторы показывают, что модели, обученные на играх до 1000 и 1300 рейтинга могут «разогнаться» и играть на 1500 и 1600 соответственно. И это всё без разных трюков, вроде перебора ходов в будущем («поиск», который мы особенно активно обсуждаем последнюю неделю).
This media is not supported in your browser
VIEW IN TELEGRAM
Скажу лише три слова: це не відеогра 😮

ооо нейромережеве
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Сиолошная
Начинаем выходные с вырезки из недавнего интервью Mira Murati (CTO OpenAI). Это, кстати, не первое её публичное появление за последний месяц — видимо, решили спрятать Sam от глаз публики, ибо слишком много негатива и претензий льётся в его сторону. А может просто более важными вещами занят 🤷‍♂️

Так вот, в этом кусочке Mira говорит про то, что модели GPT-3 по уровню интеллекта были как маленькие детки, GPT-4 на уровне старшеклассников, а в ближайшее время (в течение полутора лет) доберёмся до моделей уровня PhD (кандидатов наук) в рамках определённых задач. Вы можете не соглашаться с оценками, это популярная позиция, мол, GPT-4 на самом деле вообще не сравнима, но не в этом суть.

Что привлекло моё внимание, так это схожесть с тезисом из Situational Awareness за авторством Leopold Aschenbrenner, помните я писал про интервью и анонс работы? На бумаге у Leopold были такие же расчёты, привязанные к количеству вычислений, производимых во время обучения моделей, и
— GPT-2 имела уровень дошкольника
— GPT-3 уровень начальной школы
— GPT-4 уровень умного старшеклассника
— и дальше на горизонте модели PhD-level

Думаю, эта схожесть не случайна, и варианта вижу три:
— это распространенный внутри OpenAI подход к рассуждению
— Mira это придумала сама, не читав работу Leopold
— Mira прочитала работу и переняла эту оценку

Мне кажется, что почти наверняка это вариант 1, да и расчёты по таймлайнам в самой работе очень похожи на те, что были у штатного философа-предсказателя OpenAI Daniel Kokotajlo, задача которого была буквально оценивать сроки развития технологий и разрабатывать необходимые меры по интеграции систем в экономику и сообщество. У него даже предсказанный год появления AGI был тот же: 2027. И ровно к этому сроку OpenAI официально планировали закончить проект Superalignment'а (которого уже нет), так как считали, что нужно готовиться к развитию суперинтеллекта.

Опять же, вы можете не соглашаться с самими предсказаниями/тезисами/траекторией развития, но моя рабочая гипотеза в том, что всё это — часть реального внутреннего видения и прогнозов, которые OpenAI берут за номинальные. Это обсуждается, обговаривается, ведутся дебаты за обеденным столом, команда прогнозистов делает корректировки, etc.

В их картине мира они действительно идут к точке, что через 3-4 года будет AGI (определённый как «на уровне эксперта в большинстве экономически важных задач»); это не подразумевает, что через 4 года людей почти на всех работах заменит GPT-X, так как есть и регуляции, и проблемы внедрения технологии, и даже просто забастовки людей; такая система может быть разработана, но не анонсирована. Или разработана и анонсирована, но законсервирована, пока не появятся регуляции.

В комменты пишите свои аргументированные доводы, почему вы не согласны с таймлайном OpenAI.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Media is too big
VIEW IN TELEGRAM
Ну и вот попытка подсмотреть, как в голове у видео-ИИ устроена модель мира.

Взяли сгенерированное видео из SORA и присунули его в Нерф. Получили 3Д-модель сгенерированного мира. Понятно, что в голове у ИИ латентное пространство типа 738D, вместо нашего утлого 3D. И мы через такую 3Д-замочную скважину в виде Neural Radiance Fields (NeRFs) and 3D Gaussian Splatting (3DGS) можем теперь подглядывать чего он там насимулил про нас и наше восприятие.

Я уже писал философский пост о том, что LLM (возможно) через все эти текстовые датасеты срисовали то, как мы мыслим, ибо язык - инструмент мышления, а не общения.

Через все эти размеченные видео и картинки у ИИ в голове строится этакая визуальная модель реконструкции этого мира - способ построения картинок в голове в ответ на сигналы в виде слов(текстов) и звуков.

Ну и понятно, что он реконструирует разные многочисленные миры, соответствующие разным промптам, от игровых миров, как в случае с майнкрафтовым видео, до самых замысловатых фантазий и даже мультиков.

Пока были только генераторы картинок, речь шла скорее о симуляции воображения. С появлением временного измерения запахло симуляцией работы всего нашего мира. Точнее симуляцией того, что происходит у нас в голове (как там в реальности мы не знаем, вон змеи не видят неподвижное и живут без этой части мира в голове).

Ну и интересно поразмышлять о том, какие миры у него в башке будут близки друг к друг другу по "смыслу". Помните на у него на картинках от короля к королеве идет такой же вектор как от мужчины к женщине в его мозгах. Ответ может быть неочевидным. И шорткаты между мирами могут вас удивить.
Forwarded from Denis Sexy IT 🤖
В Nature вышла интересная статья (pdf), в ней рассматрели «человеческий язык» как инструмент для передачи информации и пришли к выводу, что это клевый способ для коллаборативной работы нас как вида (и шитпоста в интернете), но язык не нужен мозгу для «мыслительного процесса»

Я никогда не задумывался, как выглядит «мысль» если исключить из нее «язык», поэтому вот пару интересных наблюдений из статьи о том как устроен процесс мышления:

1. Мысли, вероятно, опираются на абстрактные, неязыковые ментальные представления. Это могут быть визуальные, пространственные или другие специфические представления под конкретные задачи и концепции. Как человек, который в любой момент времени может вспомнить любой маршрут по которому я ходил где-то и был трезвый, могу сказать что все так, у меня «карта местности» просто существует в виде образа в голове, как оказалось, так не у всех

2. В голове есть ансамбль нейронок — в статье упоминается несколько «мозговых сетей», участвующих в различных задачах:

— Есть нейронка «множественных требований» для целенаправленного поведения и решения новых задач, она поощряет находчивость при решении проблем, активируется при выполнении когнитивно сложных задач, особенно тех, которые требуют гибкого мышления и адаптации к новым ситуациям. Она же отвечает за планирование и рабочую память;

— Есть нейронка «теории разума» или «эмпатии»: для социального рассуждения и понимания психических состояний – мыслей, чувств, убеждений и намерений других людей. Это та, которая у нас уже хуже чем в GPT4o;

— Есть «Дефолтная нейронка», активируется когда мозг в покое – связана с кучей когнитивных штук, включая: способность мысленно перемещаться во времени (вспоминая прошлое или представляя будущее), пространственное познание, размышление о себе, своих чертах и опыте. Интересно, что повреждение это "сетки" ведет к депрессии или даже шизофрении (в теории).

3. Символическое мышление может происходить без языка как инструмента. Это означает, что мозг может манипулировать абстрактными символами или концепциями, не опираясь на слова или грамматические структуры. Условно, когда вам что-то «пришло в голову из неоткуда», это этот эффект.

4. Рассуждение по специфичным задачам — разные типы мышления (математические, социальные, пространственные и т.д.), по-видимому, задействуют разные мозговые «нейронки», что предполагает, что процессы мышления могут быть в некоторой степени модульными и специфичными для конкретных задач; это как если бы у одной мощной LLM было много Lora натренированных на конкретных задачах датасета, а не единая модель для решения всех задач.

5. Параллельная обработка — все эти «нейронки» для решения специфичных задач (социальные, причинно-следственные, решение проблем и т.д.) могут работать параллельно, получая при этом информацию с разных «сенсоров» тела, а не определяться единой системой, такой как язык.

6. Мы сильно похожи на животных — в статье упоминается непрерывность человеческой эволюции, предполагая, что наши процессы мышления могут быть более похожими на процессы мышления других животных, чем считалось ранее, просто они оказались более сложными из-за наших расширенных когнитивных способностей. То есть, условная собака может оказаться намного ближе к нам по процессу мышления чем мы раньше думали.

7. Культура развивает мышление — хоть это и не прямой механизм мышления, в статье упоминается что передача культурных знаний от поколения в поколение, повышает когнитивные способности человека с течением времени, это уже влияние языка как инструмента.


Короче, все еще ничего не понятно — но на всякий случай продолжайте тренировать лоры ☕️
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from эйай ньюз
Нас ждет абсолютно новый геймдев. Зацените, что делают ребята, которые сидят на жестких гауссиан сплатах.

Одна картинка и целый мир готов. В целом генерация таких 3D сцен — это не новость, но вот в риалтайме еще никому не удавалось. На генерацию одной полной сцены уходит 10 секунд на A6000 GPU. Это, конечно, не ультра скорость, но учтите, что даже в играх никто не рендерит во все 360.  Можно считать, что это просто мир прогружается, а потом спокойно бегать.

Картинка номер 2 в общем-то вполне наглядно объясняет принцип работы. Здесь у нас солянка из добротных быстрых гауссиан сплатов, карт глубины и аутпейнтинга.

Берут изначальную картинку, из нее извлекают карту глубины, как в обычном контролнете при аутпейнтинге генерируют мир вокруг изначальной картинки. Но с тем отличием, что карту глубины как бы упрощают и берут ограниченное количество "глубин" в целях оптимизации. Тренируют салаты по картинке.

Наслаждаемся и ходим по новоиспеченной сцене.

А если к этому еще и прикрутить PhysDreamer ой-ой-йой... (это который позволяет физически взаимодействовать со сплатами)

Когда там уже нейрорендер станет мейнстримом? Где мой риалтайм сгенерированный мир в 120 fps или ещё лучше как в нашей статье 1000fps?

Ветка про Gaussian Splatting:
- 3D Gaussian Splatting ликбез
- NerfStudio, ну а вдруг пригодится,
- мерджим картинки,
- Infinite Realities
- PhysDreamer


Project page, там даже есть демо, правда, заранее сгенерированное, просто погулять. Но сам рендеринг сцены прямо в браузере, придется немного подождать.
Бумага
Код (скоро)

@ai_newz
Исследователи Google смоделировали появление жизни, создав само-реплицирующиеся цифровые формы жизни с помощью языка программирования Brainfuck. Они начали с случайных данных, которые взаимодействовали на протяжении миллионов поколений, и эти данные эволюционировали в само-реплицирующиеся программы. Эксперты отмечают, что само-репликация — это лишь часть жизни, требующая дальнейшей сложности. Ученые считают, что с большей вычислительной мощностью можно достичь более сложных результатов.

](https://futurism.com/the-byte/google-simulated-emergence-life).
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Помните эти новости, типа "французы убили OpenAI выпустив голосового помощника Moshi"?
Вместо того, чтобы сами ломиться тестировать проще посадить их рядом и попросить поговорить. Сразу станет понятно, у кого задержка меньше, кто умнее и тд.
И вот эта вот идея о том, что два ИИ разговаривают постепенно проникает в наши мозги.
Пока все рассматривали сценарии типа "ИИ, забронируй мне отель", но на стороне отеля тоже ИИ. И вот они уже весело щебечут.
Идем дальше: "ИИ сгоняй на звонок вместо меня, все равно мне там сидеть и слушать". И вот уже все пригнали своих ИИ-ассистентов на онлайн-колл, и они там решают судьбы мира.
А мне вот в связи с эти видится еще одно применение.
Помните, как ловко ИИ уже пишет сценарии. Даже диалоги выписывает, держа в голове несколько персонажей. Но если мы возьмем пару разных ИИ-агентов и заставим их поговорить друг с другом в реальном времени, то диалоговые сценарии могут быть, скажем так, очень свежими. Более того, кожаным сценаристам будет что подслушать и что спиратить для своих, пока еще кожаных, пьес.

В общем послушайте как два ИИ лопочут, один взрослый, второй поменьше и подумайте, о возможных применениях.
Интервью фаундера Adept - AI агенты для knowledge workers, подняли $400 млн с 2022, были вынуждены продаться Amazon:

- Раньше он был VP of engineering GPT и Dall-e
- Главный миф про AGI - что через 10 лет заберет у нас работу. Да нет, просто будет скачок как от MS-DOS к графическим интерфейсам

Co-pilots
- Это и просто путь захвата рынка новыми игроками, но и наш ангел Scott Belsky (фаундер Behance) говорит: будет collapse of talent - один чел будет играть роль сразу PM/designer/engineer, руля пачкой co-pilots, мы станем более generalists
- У enterprises большие бюджеты на опыты с AI и мы переоцениваем их real adoption щас, но через 10 лет в продакшне будет больше, чем думаем
- AI services компании (помогают внедрять AI в enterprises) будут больше по выручке, чем model providers. Но продуктовые - еще больше

Adept
- Мы не пилим LLM, а в узкой нише агентов кому можно поручить произвольную работу. И тут верим в вертикальную интеграцию начиная от интерфейса end users
- Разница: RPA/Uipath делают много идентичных задач, их внедряют по полгода (меняя процессы) всякие Accenture (главный канал продаж). Агенты же постоянно меняют план как решать задачу. Enterprises юзают RPA и агенты параллельно
- Через 5-10 лет сможем ставить агентам высокоуровневые цели
- Мы как self-driving, когда его еще не было - потенциал даже сложно вообразить

Foundational models, чипы
- LLM сами по себе не продукт. Станут base layer для всего, как в софте EC2 nodes и storage. Nvidia подъедает, идя по value chain, поэтому все cloud providers и LLM игроки пилят свои чипы
- Думаю, будет вертикальная интеграция LLM и чипов. А иначе Google нет смысла продавать TPU, если фора по цене 20% - проще самим тренить и брать выручку с end users
- Альянс Apple и OpenAI двоякий: говорит, что коммодитизация LLM будет, но и еще что Gpt4o с мультимодальностью и OpenAI пока научно далеко впереди. А Apple будет мелкими моделями что-то солвить локально на приватных data юзеров
- У топ LLM сжимается окно набрать нужный объем выручки от end users чтобы остаться независимыми

3 эпохи DL в AI
1. До 2012 в AI и ML пробовали всякое и не работало
2. Google Brain 2012-2018, чистый R&D: собрали всех топ ученых и каждый искал из своего любопытства -> создали transformers, diffusion, оптимизацию - все, что сейчас воспринимают как должное
3. А с 2018 new age - Deepmind поняли, что надо прикладывать ML к разным real world or science problems

Лернинги OpenAI
- Я работал с Ильей, он говорил: давай трансформеры - они же всюду применимы
- OpenAI направлял бездну людей на одну проблему (типа “как управлять рукой робота”), этот подход уже не как в просто academia (там главная цель - статьи). Не пачка мелких ракет, а лунная программа
- 6 лет от transformers к chatGPT - это чтобы end users ну прям оценили. И за год до B2C релиза ChatGPT выкатили API разрабам играться

Ограничения моделей
- Не верю в иссякание performance моделей, просто это логарифмическая кривая: GPT5 заюзает в 100x больше вычислений, чем GPT4. Но закон Мура позволяет
- Но LLM НЕ superhuman, НЕ рождают новые подходы к нерешенным задачам
- Про данные как было? E.g. Учим решать maths - грузим кучу правильных решений, ОК. Но можно встроить модель в блокноты людей, кто только пробует решить, и это бездна data to absorb. Их больше в разговорах и на whiteboards, чем в datasets. Ну и конечно "бесконечный RL пока не решишь" типа AlphaGo

Reasoning
- Reasoning: для меня это способность порождать новые мысли. В отрасли есть идеи как решать, на roadmaps всех LLM игроков, но нужен рисеч
- Кодеры строят что-то конкретное, но в AI ты мало что меняешь, а просто растишь масштаб и наблюдаешь new intelligence. Хотя щас сложнее быть уверенным "натреним модель на $2 млрд, 100% что-то улучшим" =)
- Окно контекста в ML сложно, хотя у Gemini 1 млн токенов, но надо real memory оf long term предпочтений юзеров

Прочее
- Open source оч важен, пусть и с неким лагом из-за роста костов, но так вся отрасль будет поспевать за лидерами
- Регуляторы, к сожалению, ваще не понимают tech
- А паника по AI - это уже совсем глупости
- 20% людей меньше выпивали с последствиями. И на 53% (!) меньше юзали обезбаливающие без рецепта (наркотики), и причем мужчины - аж на 80% меньше
- Мужчины стали на 45% реже оказываться в опасных ситуациях
(водить пьяным, ходить в опасные районы/конфликты, опасный спорт итп)