Если в вашем проекте бардак, то скорее зовите на помощь мистера Пропера MLflow
👍46❤9🔥8❤🔥1
Forwarded from Бэкдор
Расходимся: ChatGPT не будут встраивать в Госуслуги! Речь шла не конкретно о нейронке Сэма Альтмана, а о технологии Generative Pre-trained Transformer.
Сейчас основной претендент на главного помощника россиян — GigaChat от Сбера.
@whackdoor
Сейчас основной претендент на главного помощника россиян — GigaChat от Сбера.
@whackdoor
❤31😁19🤯4🗿4
This media is not supported in your browser
VIEW IN TELEGRAM
Сэм Альтман:
К такому выводу пришли он и его CEO-друзья в их чатике. Верим?
ИИ очень скоро позволит человеку в одиночку построить миллиардную компанию.
К такому выводу пришли он и его CEO-друзья в их чатике. Верим?
😁64👍39🙈23❤3🔥3🌚3🤔1🗿1
Так, ну все ведь слышали про парня, который женится на девушке, которую нашел для него ChatGPT (общался с ней тоже бот)? Это тот самый человек, который весной защитил диплом с помощью этой же нейросети.
А теперь давайте прочтем технический разбор этой сказочной истории. Мнения?
А теперь давайте прочтем технический разбор этой сказочной истории. Мнения?
😁99👍17❤4🫡4😐2⚡1
Forwarded from XOR
В новой GTA 6, судя по всему, будет широко использоваться ИИ. В сети нашли новые патенты Take-Two.
Так, интерьеры в домах будут генерироваться нейросетями прямо в ходе игры. Дешевые квартиры могут отличаться от дорогих, а предметы в них со временем начнут изнашиваться.
ИИ также будет генерировать ответы, настроение и поведение NPC. ИИ выберет модель и реакцию персонажа исходя из окружающей ситуации: действий игрока, других NPC и даже погоды.
Поверх всего Команда ИИ-фреймворка Unity Sentis начала публиковать на Hugging Face модели машинного обучения, адаптированные под использование в игровом движке Unity. В компании считают, что это поможет разработчикам в поиске подходящих для проекта решений. Так что индустрия игр должна скоро очень сильно поменяться.
@xor_journal
Так, интерьеры в домах будут генерироваться нейросетями прямо в ходе игры. Дешевые квартиры могут отличаться от дорогих, а предметы в них со временем начнут изнашиваться.
ИИ также будет генерировать ответы, настроение и поведение NPC. ИИ выберет модель и реакцию персонажа исходя из окружающей ситуации: действий игрока, других NPC и даже погоды.
Поверх всего Команда ИИ-фреймворка Unity Sentis начала публиковать на Hugging Face модели машинного обучения, адаптированные под использование в игровом движке Unity. В компании считают, что это поможет разработчикам в поиске подходящих для проекта решений. Так что индустрия игр должна скоро очень сильно поменяться.
@xor_journal
👍56🔥20❤7🤔3😁1
Напомним, что внесение технических деталей в закон заняло больше месяца. До этого против закона выступали Франция, Германия и Италия. Они аргументировали это тем, что не хотят препятствовать развитию европейских LLM-стартапов, и просили упростить требования.
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯40🗿8🍌3❤2🤔2
Forwarded from ️LazySquare️Official
Media is too big
VIEW IN TELEGRAM
THE A.I.//И.И.
A little up-to-date agenda wouldn't hurt. All coincidences with historical characters are, as usual, accidental. The 7 deadly sins are also included///Немного актуальной повестки не помешает пожалуй. Все совпадения с историческими персонажами, как обычно, случайны. 7 смертных грехов также прилагаются
A little up-to-date agenda wouldn't hurt. All coincidences with historical characters are, as usual, accidental. The 7 deadly sins are also included///Немного актуальной повестки не помешает пожалуй. Все совпадения с историческими персонажами, как обычно, случайны. 7 смертных грехов также прилагаются
👍24🔥12❤4🤯2🍌1😐1
Hugging Face, видимо, вдохновились доступностью GPT’s и объявили об упрощении функционала создания собственных чат ботов с Hugging Chat Assistant. При этом пользователи могут использовать любую открытую LLM, например Llama2 или Mixtral. После публикации юзер-боты становятся общедоступными.
🔥40👍9❤7
Чем скрасить вечер воскресенья? Вот три документалки про Data Science, которые точно справятся с этой задачей:
▪️ The Great Hack. Расследование о частной английской компании Cambridge Analytica, которая якобы использует технологии глубинного анализа данных для вмешательства в ход выборов более чем 200 стран.
▪️ Data Science Pioneers. Документалка в стиле «беседы у камина» про выдающихся дата сайентистов и их вклад в науку.
▪️ Coded Bias. На злобу дня: рассказ про расовую предвзятость алгоритмов распознавания лиц. Основано на исследовании MIT.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤42👍11🔥8🫡2
Понедельник! Разомнемся задачкой перед рабочей неделей?
За кандидата А подано а голосов, за кандидата В - b голосов, а > b. Во время подсчета голосов бюллетени достают из урны по одному в случайном порядке. Какова вероятность того, что на протяжении всего подсчета голосов кандидат А будет впереди кандидата В?
За кандидата А подано а голосов, за кандидата В - b голосов, а > b. Во время подсчета голосов бюллетени достают из урны по одному в случайном порядке. Какова вероятность того, что на протяжении всего подсчета голосов кандидат А будет впереди кандидата В?
🔥14🥰12🤯3👍1🗿1
Предсказание временных рядов by Google
Недавно у Google вышла новая папира – в ней они представили “foundation” модель для предсказания временных рядов. Идея, если кратко, в трансформере. Собственно, статья так и называется: decoder-only model.
Трансформер обучили на большом корпусе временных рядов и, подобно LLM, модель по контексту предсказывает следующий токен (в данном случае токен - это небольшой батч подряд идущих точек).
Идея действительно интересная, но есть проблема – с оцениваем результатов исследователи провалились.
Графики с первого взгляда выглядят оптимистично, но только если не замечать, что для них выбраны простейшие временные ряды и довольно слабые модели-соперники.
Тем временем, судя по другим частям статьи, трансформеру не тягаться с такими алгоритмами, как NBEATs: он, к сожалению, еле-еле превосходит по качеству ARIMA.
Недавно у Google вышла новая папира – в ней они представили “foundation” модель для предсказания временных рядов. Идея, если кратко, в трансформере. Собственно, статья так и называется: decoder-only model.
Трансформер обучили на большом корпусе временных рядов и, подобно LLM, модель по контексту предсказывает следующий токен (в данном случае токен - это небольшой батч подряд идущих точек).
Идея действительно интересная, но есть проблема – с оцениваем результатов исследователи провалились.
Графики с первого взгляда выглядят оптимистично, но только если не замечать, что для них выбраны простейшие временные ряды и довольно слабые модели-соперники.
Тем временем, судя по другим частям статьи, трансформеру не тягаться с такими алгоритмами, как NBEATs: он, к сожалению, еле-еле превосходит по качеству ARIMA.
👍32🔥7🤯6❤1☃1😁1