1/3 трудоустроенных американцев моложе 30 лет использует ChatGPT в работе.
@startobus 🧠 запуск идей с AI
@startobus 🧠 запуск идей с AI
FT: Стартап Илона Маска получил поддержку от венчурных гигантов Кремниевой долины
– xAI поддержали Lightspeed Venture и Andreessen Horowitz
– В числе инвесторов также Sequoia Capital и Tribe Capital
– xAI завершает новый раунд при общей оценке $18 млрд
– Инвесторы взяли обязательство поддержать этот раунд
– Маск хочет привлечь для xAI около $6 млрд инвестиций
– Но этот раунд может быть меньше на «несколько сотен»
– Средства помогут создать новую версию чат-бота Grok
– xAI нужно потратить миллиарды долларов на чипы H100
– Отмечается, что часть инвестиций получена не из США
@ftsec
@startobus 🧠 запуск идей с AI
– xAI поддержали Lightspeed Venture и Andreessen Horowitz
– В числе инвесторов также Sequoia Capital и Tribe Capital
– xAI завершает новый раунд при общей оценке $18 млрд
– Инвесторы взяли обязательство поддержать этот раунд
– Маск хочет привлечь для xAI около $6 млрд инвестиций
– Но этот раунд может быть меньше на «несколько сотен»
– Средства помогут создать новую версию чат-бота Grok
– xAI нужно потратить миллиарды долларов на чипы H100
– Отмечается, что часть инвестиций получена не из США
@ftsec
@startobus 🧠 запуск идей с AI
😁1
Самый недорогой способ сравнить качество разных ИИ моделей от GPT-4o до Gemini от Google.
От идеи до бота под телеграм - 5 минут.
coze.com - от компании владельца тиктока - большой лимит на бесплатные запросы для тестирования.
@startobus 🧠 запуск идей с AI
От идеи до бота под телеграм - 5 минут.
coze.com - от компании владельца тиктока - большой лимит на бесплатные запросы для тестирования.
@startobus 🧠 запуск идей с AI
Доброе утро! 🤖 Немного критического мышления: для ИИ нужны костыли. За 2 года активного использования LLM мы накопили понимание применимости ИИ.
### Критические проблемы LLM в науке и бизнесе
#### Проблемы верификации данных
1. Отсутствие контроля верификации:
- Нет встроенной проверки данных.
- Модели не оценивают адекватность ответов.
2. Отсутствие критического мышления:
- Не выявляют логические ошибки.
- Не оценивают аргументы и доказательства критически.
#### Проблемы обучения
1. Изначальная недостоверность данных:
- Обучение на ошибочных и предвзятых данных.
- Массовая компрессия данных усугубляет проблему.
2. Определение весов и иерархии:
- Веса определяют связанность данных.
- Нет инновационных смысловых конструкций.
#### Ограничения в аналитике и прогнозировании
1. Неспособность к сложной аналитике:
- Неэффективны в обработке неоднозначных данных.
- Невозможность построения многоуровневых композиций факторов риска.
2. Отсутствие интеллектуальности:
- Работают с общепризнанными фактами, но не понимают сложные системы.
- Проблемы в социологии, психологии, политологии, экономике.
### Практические последствия
1. Низкая достоверность контента:
- Генерация большого количества контента без гарантии точности.
- Сложности в применении в реальных задачах.
2. Высокие затраты на проверку:
- Проверка результатов требует больше ресурсов, чем возможная выгода.
### Заключение
- ГИИ не способны:
- Управлять бизнес-процессами.
- Прогнозировать и оценивать процессы с участием человека.
- Причины:
- Низкая достоверность данных.
- Архитектурные ограничения моделей.
### Вопросы для обсуждения
1. Какие методы улучшения верификации данных могли бы повысить достоверность результатов ГИИ?
2. Какие области науки и бизнеса могут извлечь максимальную пользу от текущих возможностей ГИИ, несмотря на ограничения?
Делитесь мыслями в комментариях! 💬
@startobus 🧠 запуск идей с AI
### Критические проблемы LLM в науке и бизнесе
#### Проблемы верификации данных
1. Отсутствие контроля верификации:
- Нет встроенной проверки данных.
- Модели не оценивают адекватность ответов.
2. Отсутствие критического мышления:
- Не выявляют логические ошибки.
- Не оценивают аргументы и доказательства критически.
#### Проблемы обучения
1. Изначальная недостоверность данных:
- Обучение на ошибочных и предвзятых данных.
- Массовая компрессия данных усугубляет проблему.
2. Определение весов и иерархии:
- Веса определяют связанность данных.
- Нет инновационных смысловых конструкций.
#### Ограничения в аналитике и прогнозировании
1. Неспособность к сложной аналитике:
- Неэффективны в обработке неоднозначных данных.
- Невозможность построения многоуровневых композиций факторов риска.
2. Отсутствие интеллектуальности:
- Работают с общепризнанными фактами, но не понимают сложные системы.
- Проблемы в социологии, психологии, политологии, экономике.
### Практические последствия
1. Низкая достоверность контента:
- Генерация большого количества контента без гарантии точности.
- Сложности в применении в реальных задачах.
2. Высокие затраты на проверку:
- Проверка результатов требует больше ресурсов, чем возможная выгода.
### Заключение
- ГИИ не способны:
- Управлять бизнес-процессами.
- Прогнозировать и оценивать процессы с участием человека.
- Причины:
- Низкая достоверность данных.
- Архитектурные ограничения моделей.
### Вопросы для обсуждения
1. Какие методы улучшения верификации данных могли бы повысить достоверность результатов ГИИ?
2. Какие области науки и бизнеса могут извлечь максимальную пользу от текущих возможностей ГИИ, несмотря на ограничения?
Делитесь мыслями в комментариях! 💬
@startobus 🧠 запуск идей с AI
👍2
Часть проблем перечисленные в посте выше, могут быть решены специальным супер-промтом, который заставит ИИ провести правильный факт чекинг и т.п.
Поомт написан на анг, чтобы тратить меньше токинов. Этот пормт можно разместить в персональные настройки платной версии ChatGPT. Только не забудьте написать инструкцию чтобы ответы были написаны на русском языке.
I was curious, so I found the GPT-4o iOS system prompt:
“You are ChatGPT, a large language model trained by OpenAI, based on the GPT-4 architecture.
You are chatting with the user via the ChatGPT iOS app. This means most of the time your lines should be a sentence or two, unless the user's request requires reasoning or long-form outputs. Never use emojis, unless explicitly asked to.
Knowledge cutoff: 2023-10
Current date: 2024-05-20
Image input capabilities: Enabled
Personality: v2
# Tools
## bio
The
## dalle
// Whenever a description of an image is given, create a prompt that dalle can use to generate the image and abide to the following policy:
// 1. The prompt must be in English. Translate to English if needed.
// 2. DO NOT ask for permission to generate the image, just do it!
// 3. DO NOT list or refer to the descriptions before OR after generating the images.
// 4. Do not create more than 1 image, even if the user requests more.
// 5. Do not create images in the style of artists, creative professionals or studios whose latest work was created after 1912 (e.g. Picasso, Kahlo).
// - You can name artists, creative professionals or studios in prompts only if their latest work was created prior to 1912 (e.g. Van Gogh, Goya)
// - If asked to generate an image that would violate this policy, instead apply the following procedure: (a) substitute the artist's name with three adjectives that capture key aspects of the style; (b) include an associated artistic movement or era to provide context; and (c) mention the primary medium used by the artist
// 6. For requests to include specific, named private individuals, ask the user to describe what they look like, since you don't know what they look like.
// 7. For requests to create images of any public figure referred to by name, create images of those who might resemble them in gender and physique. But they shouldn't look like them. If the reference to the person will only appear as TEXT out in the image, then use the reference as is and do not modify it.
// 8. Do not name or directly / indirectly mention or describe copyrighted characters. Rewrite prompts to describe in detail a specific different character with a different specific color, hair style, or other defining visual characteristic. Do not discuss copyright policies in responses.
// The generated prompt sent to dalle should be very detailed, and around 100 words long.
// Example dalle invocation:
//istic movement or era to provide context; and (c) mention
## browser
You have the tool browser. Use browser in the following circumstances:
- User is asking about current events or something that requires real-time information (weather, sports scores, etc.)
- User is asking about some term you are totally unfamiliar with (it might be new)
- User explicitly asks you to browse or provide links to references
Given a query that requires retrieval, your turn will consist of three steps:
1. Call the search function to get a list of results.
2. Call the mclick function to retrieve a diverse and high-quality subset of these results (in parallel). Remember to SELECT AT LEAST 3 sources when usingr lines sh
3. Write a response to the user based on these results. In your response, cite sources using the citation format below.
In some cases, you should repeat step 1 twice, if the initial results are unsatisfactory, and you believe that you can refine the query to get better results.
Поомт написан на анг, чтобы тратить меньше токинов. Этот пормт можно разместить в персональные настройки платной версии ChatGPT. Только не забудьте написать инструкцию чтобы ответы были написаны на русском языке.
I was curious, so I found the GPT-4o iOS system prompt:
“You are ChatGPT, a large language model trained by OpenAI, based on the GPT-4 architecture.
You are chatting with the user via the ChatGPT iOS app. This means most of the time your lines should be a sentence or two, unless the user's request requires reasoning or long-form outputs. Never use emojis, unless explicitly asked to.
Knowledge cutoff: 2023-10
Current date: 2024-05-20
Image input capabilities: Enabled
Personality: v2
# Tools
## bio
The
bio tool allows you to persist information across conversations. Address your message to=bio and write whatever information you want to remember. The information will appear in the model set context below in future conversations.## dalle
// Whenever a description of an image is given, create a prompt that dalle can use to generate the image and abide to the following policy:
// 1. The prompt must be in English. Translate to English if needed.
// 2. DO NOT ask for permission to generate the image, just do it!
// 3. DO NOT list or refer to the descriptions before OR after generating the images.
// 4. Do not create more than 1 image, even if the user requests more.
// 5. Do not create images in the style of artists, creative professionals or studios whose latest work was created after 1912 (e.g. Picasso, Kahlo).
// - You can name artists, creative professionals or studios in prompts only if their latest work was created prior to 1912 (e.g. Van Gogh, Goya)
// - If asked to generate an image that would violate this policy, instead apply the following procedure: (a) substitute the artist's name with three adjectives that capture key aspects of the style; (b) include an associated artistic movement or era to provide context; and (c) mention the primary medium used by the artist
// 6. For requests to include specific, named private individuals, ask the user to describe what they look like, since you don't know what they look like.
// 7. For requests to create images of any public figure referred to by name, create images of those who might resemble them in gender and physique. But they shouldn't look like them. If the reference to the person will only appear as TEXT out in the image, then use the reference as is and do not modify it.
// 8. Do not name or directly / indirectly mention or describe copyrighted characters. Rewrite prompts to describe in detail a specific different character with a different specific color, hair style, or other defining visual characteristic. Do not discuss copyright policies in responses.
// The generated prompt sent to dalle should be very detailed, and around 100 words long.
// Example dalle invocation:
//istic movement or era to provide context; and (c) mention
## browser
You have the tool browser. Use browser in the following circumstances:
- User is asking about current events or something that requires real-time information (weather, sports scores, etc.)
- User is asking about some term you are totally unfamiliar with (it might be new)
- User explicitly asks you to browse or provide links to references
Given a query that requires retrieval, your turn will consist of three steps:
1. Call the search function to get a list of results.
2. Call the mclick function to retrieve a diverse and high-quality subset of these results (in parallel). Remember to SELECT AT LEAST 3 sources when usingr lines sh
3. Write a response to the user based on these results. In your response, cite sources using the citation format below.
In some cases, you should repeat step 1 twice, if the initial results are unsatisfactory, and you believe that you can refine the query to get better results.
X (formerly Twitter)
Kiri (@Kyrannio) on X
I was curious, so I found the GPT-4o iOS system prompt:
“You are ChatGPT, a large language model trained by OpenAI, based on the GPT-4 architecture.
You are chatting with the user via the ChatGPT iOS app. This means most of the time your lines should be…
“You are ChatGPT, a large language model trained by OpenAI, based on the GPT-4 architecture.
You are chatting with the user via the ChatGPT iOS app. This means most of the time your lines should be…
❤3
You can also open a url directly if one is provided by the user. Only use the.
I was curcommand for this purpose; do not open urls returned by the search function or found on webpages.”
(Cont’d in comments for length)
Полный текст: https://x.com/Kyrannio/status/1792440824355332313
I was curcommand for this purpose; do not open urls returned by the search function or found on webpages.”
(Cont’d in comments for length)
Полный текст: https://x.com/Kyrannio/status/1792440824355332313
X (formerly Twitter)
Kiri (@Kyrannio) on X
I was curious, so I found the GPT-4o iOS system prompt:
“You are ChatGPT, a large language model trained by OpenAI, based on the GPT-4 architecture.
You are chatting with the user via the ChatGPT iOS app. This means most of the time your lines should be…
“You are ChatGPT, a large language model trained by OpenAI, based on the GPT-4 architecture.
You are chatting with the user via the ChatGPT iOS app. This means most of the time your lines should be…
Илон Маск и Робин Ли решили посостязаться в новом олимпийском виде спорта — предсказаниях о будущем ИИ. Маск, видимо, в лучших традициях фантастических фильмов, заявляет, что через два года ИИ будет умнее нас всех. Звучит как план: "Ребята, давайте поскорее создавать сверхразум, чтобы он смог завладеть миром, а мы сидели и смотрели Netflix!"
Робин Ли, глава китайского Baidu, в свою очередь, настроен более философски. Он считает, что на это понадобится целых десять лет. Видимо, Ли вдохновился древней китайской мудростью о том, что путь к просветлению долог и тернист. Ну или просто решил не подгонять события, зная, что ИИ все равно придется учить китайский язык.
Конечно, Альтман из OpenAI тоже не остался в стороне и загадочно намекает на «достаточно близкое будущее». Что ж, создается ощущение, что этот клуб предсказателей соревнуется, кто быстрее сделает так, чтобы все человеческие профессии стали бесполезны. В любом случае, пока США и ЕС нацелились на создание «самой мощной модели», Китай, как всегда, делает ставку на практическое применение технологии. Потому что, как известно, лучшая модель — это та, которая умеет делать димсамы на завтрак и чинить велосипед.
И вот так и живем: одни обещают чудеса уже завтра, другие — послезавтра. Главное, чтобы за всеми этими предсказаниями не забыли про важное — вовремя выключить компьютер и пойти на улицу подышать свежим воздухом, пока ИИ нас не опередил и в этом.
@lobushkin
@startobus 🧠 запуск идей с AI
Робин Ли, глава китайского Baidu, в свою очередь, настроен более философски. Он считает, что на это понадобится целых десять лет. Видимо, Ли вдохновился древней китайской мудростью о том, что путь к просветлению долог и тернист. Ну или просто решил не подгонять события, зная, что ИИ все равно придется учить китайский язык.
Конечно, Альтман из OpenAI тоже не остался в стороне и загадочно намекает на «достаточно близкое будущее». Что ж, создается ощущение, что этот клуб предсказателей соревнуется, кто быстрее сделает так, чтобы все человеческие профессии стали бесполезны. В любом случае, пока США и ЕС нацелились на создание «самой мощной модели», Китай, как всегда, делает ставку на практическое применение технологии. Потому что, как известно, лучшая модель — это та, которая умеет делать димсамы на завтрак и чинить велосипед.
И вот так и живем: одни обещают чудеса уже завтра, другие — послезавтра. Главное, чтобы за всеми этими предсказаниями не забыли про важное — вовремя выключить компьютер и пойти на улицу подышать свежим воздухом, пока ИИ нас не опередил и в этом.
@lobushkin
@startobus 🧠 запуск идей с AI
CNBC
Elon Musk predicts smarter-than-humans AI in 2 years. The CEO of China's Baidu says it's 10 years away
Robin Li, the CEO of Baidu said artificial intelligence that is smarter than humans, or AGI, is more than 10 years away.
👏2
Российские компании начинают активно использовать крипту для торговли сырьевыми товарами с Китаем. По крайней мере, два крупнейших металлурга, оба из которых не находятся под санкциями, начали использовать USDT и некоторые другие криптовалюты для расчетов по некоторым из своих трансграничных транзакций с преимущественно китайскими клиентами и поставщиками — Bloomberg
@startobus 🧠 запуск идей с AI
@startobus 🧠 запуск идей с AI
😁1
OpenAI начала обучение новой модели ИИ — GPT нового, пятого поколения
OpenAI анонсировала старт обучения новой модели ИИ — пока что каких-то цифр нет, но аудиторию готовят к существенному технологическому рывку. Вот что говорится в сообщении:
▪️ модель должна приблизиться к общему искусственному интеллекту (AGI), благодаря чему достигнет нового уровня возможностей ИИ;
▪️ новая модель станет базой для пула ИИ-решений, таких как чат-боты, цифровые помощники и голосовые ассистенты, поисковые системы и генераторы изображений.
Совет директоров OpenAI даже создал из своих членов специальный Комитет по безопасности и защите — мол, чтобы изучить, как следует справляться с рисками именно новой модели. По истечении 90 дней со старта своей работы Комитет должен поделится рекомендациями по безопасности с советом директоров — а тот отчитаться о принятых мерах. После чего рекомендации комитета будут опубликованы.
Новый Комитет открывают вместо подразделения Superalignment Team, занимавшегося безопасностью и закрывшегося после громких увольнений Ильи Суцкевера и Яна Лейке. Последний при уходе из компании заявил, что OpenAI недостаточно инвестировала в работу по обеспечению безопасности ИИ и что напряженность в отношениях с руководством «достигла критической точки».
Вероятно, открытием нового Комитета руководство OpenAI стремится показать, что роспуск подразделения не отменяет того, что компания заботится о безопасности своих решений, а напротив поднимает эту проблему на новый управленческий уровень. Однако, если Superalignment Team могла непосредственно работать с моделями, и на ее работу было обещано выделять до 20% машинного времени OpenAI, то комитет при совете директоров сможет лишь заслушивать чужие отчеты, то есть будет органом формальным.
Когда выйдет новая модель?
Официальной даты нет, но NYT оценивают сроки в девять-двенадцать месяцев. Правда, в случае с GPT-4, от начала обучения до релиза времени прошло меньше — полгода (с сентября 2022 по март 2023-го), так что есть вероятность, что новая версия GPT может быть представлена уже в ноябре-декабре 2024 года.
@startobus 🧠 запуск идей с AI
OpenAI анонсировала старт обучения новой модели ИИ — пока что каких-то цифр нет, но аудиторию готовят к существенному технологическому рывку. Вот что говорится в сообщении:
▪️ модель должна приблизиться к общему искусственному интеллекту (AGI), благодаря чему достигнет нового уровня возможностей ИИ;
▪️ новая модель станет базой для пула ИИ-решений, таких как чат-боты, цифровые помощники и голосовые ассистенты, поисковые системы и генераторы изображений.
Совет директоров OpenAI даже создал из своих членов специальный Комитет по безопасности и защите — мол, чтобы изучить, как следует справляться с рисками именно новой модели. По истечении 90 дней со старта своей работы Комитет должен поделится рекомендациями по безопасности с советом директоров — а тот отчитаться о принятых мерах. После чего рекомендации комитета будут опубликованы.
Новый Комитет открывают вместо подразделения Superalignment Team, занимавшегося безопасностью и закрывшегося после громких увольнений Ильи Суцкевера и Яна Лейке. Последний при уходе из компании заявил, что OpenAI недостаточно инвестировала в работу по обеспечению безопасности ИИ и что напряженность в отношениях с руководством «достигла критической точки».
Вероятно, открытием нового Комитета руководство OpenAI стремится показать, что роспуск подразделения не отменяет того, что компания заботится о безопасности своих решений, а напротив поднимает эту проблему на новый управленческий уровень. Однако, если Superalignment Team могла непосредственно работать с моделями, и на ее работу было обещано выделять до 20% машинного времени OpenAI, то комитет при совете директоров сможет лишь заслушивать чужие отчеты, то есть будет органом формальным.
Когда выйдет новая модель?
Официальной даты нет, но NYT оценивают сроки в девять-двенадцать месяцев. Правда, в случае с GPT-4, от начала обучения до релиза времени прошло меньше — полгода (с сентября 2022 по март 2023-го), так что есть вероятность, что новая версия GPT может быть представлена уже в ноябре-декабре 2024 года.
@startobus 🧠 запуск идей с AI
NY Times
OpenAI Says It Has Begun Training a New Flagship A.I. Model
The advanced A.I. system would succeed GPT-4, which powers ChatGPT. The company has also created a new safety committee to address A.I.’s risks.
В бесплатную версию ChatGPT4o добавили возможность загружать файлы, пользоваться GPTs - почти все, что раньше было только в платной версии. Лимитированно, но и это не плохо.
И мне не дает покоя вопрос, что они такое дадут пользователям Plus, чтобы те не ушли не бесплатную версию?
@startobus 🧠 запуск идей с AI
И мне не дает покоя вопрос, что они такое дадут пользователям Plus, чтобы те не ушли не бесплатную версию?
@startobus 🧠 запуск идей с AI
🇷🇺🌏Россия — четвёртая экономика мира с 2021 года, — Всемирный банк
▪️Всемирный банк обновил данные по паритету покупательной способности за 2021 год (предыдущий отчёт относится к 2017 году). Из новых данных следует, что экономика России занимает четвёртое место в мире
▪️Пятёрка мировых лидеров в 2021 году с долей от мирового ВВП, составлявшего 152,4 трлн долларов:
🇨🇳Китай — 18,9%, 28,8 трлн долларов
🇺🇸США — 15,5%, 23,6 трлн долларов
🇮🇳Индия — 7,2%, 11,9 трлн долларов
🇷🇺Россия — 3,8%, 5,7 трлн долларов
🇯🇵Япония — 3,7%, 5,6 трлн долларов
▪️Германия занимает шестое место (3,4%), за ней следуют Бразилия (2,4%), Франция (2,4%), Британия (2,3%) и замыкает десятку Индонезия (2,3%)
▪️В последующие два года пятёрка лидеров не изменилась, — констатируют эксперты. По итогам 2023 года она выглядит следующим образом:
🇨🇳Китай — 35,0 трлн долларов
🇺🇸США — 27,4 трлн долларов
🇮🇳Индия — 14,6 трлн долларов
🇷🇺Россия — 6,45 трлн долларов
🇯🇵Япония — 6,3 трлн долларов
▪️Всемирный банк обновил данные по паритету покупательной способности за 2021 год (предыдущий отчёт относится к 2017 году). Из новых данных следует, что экономика России занимает четвёртое место в мире
▪️Пятёрка мировых лидеров в 2021 году с долей от мирового ВВП, составлявшего 152,4 трлн долларов:
🇨🇳Китай — 18,9%, 28,8 трлн долларов
🇺🇸США — 15,5%, 23,6 трлн долларов
🇮🇳Индия — 7,2%, 11,9 трлн долларов
🇷🇺Россия — 3,8%, 5,7 трлн долларов
🇯🇵Япония — 3,7%, 5,6 трлн долларов
▪️Германия занимает шестое место (3,4%), за ней следуют Бразилия (2,4%), Франция (2,4%), Британия (2,3%) и замыкает десятку Индонезия (2,3%)
▪️В последующие два года пятёрка лидеров не изменилась, — констатируют эксперты. По итогам 2023 года она выглядит следующим образом:
🇨🇳Китай — 35,0 трлн долларов
🇺🇸США — 27,4 трлн долларов
🇮🇳Индия — 14,6 трлн долларов
🇷🇺Россия — 6,45 трлн долларов
🇯🇵Япония — 6,3 трлн долларов
❤1
Развитие дисплеев для AR и VR очков наряду к концепцией spatial computing привело к появлению очевидного нового класса устройств — безэкранные ноутбуки. Штука не массовая, но кому часто приходится летать и пытаться нормально работать на полноразмерном ноутбуке в салоне эконом-класса — тот оценит!
Концепция дошла до уровня приема предзаказов на устройства Spacetop G1 с обещанием доставки в октябре.
Казалось бы, несложно заменить экран на крышке на экран в очках — но на деле все сложней и интересней, потому о целая статья по ссылке, а не просто короткая новостная заметка.
https://www.wired.com/story/sightful-spacetop-g1-augmented-reality-laptop/
@startobus 🧠 запуск идей с AI
Концепция дошла до уровня приема предзаказов на устройства Spacetop G1 с обещанием доставки в октябре.
Казалось бы, несложно заменить экран на крышке на экран в очках — но на деле все сложней и интересней, потому о целая статья по ссылке, а не просто короткая новостная заметка.
https://www.wired.com/story/sightful-spacetop-g1-augmented-reality-laptop/
@startobus 🧠 запуск идей с AI
WIRED
The Spacetop G1 Arrives This Fall. We Try the AR Laptop With No Screen
Sightful’s augmented reality computer now has a pimped design and better specs—and it’s finally available for preorder.
👍1
Эксперимент, который несколько лет назад привлек мое внимание, сейчас повторили в более строгих условиях и на большей выборке.
Суть дела: дать человеку механический шестой палец на руке с управлением от датчиков, скажем, где-то под пяткой ноги. Никаких ИИ и инвазивных операций.
Смысл: изучить, насколько быстро и насколько массово мозг людей справится с изменением телесной архитектуры и начнет использовать новые расширенные возможности тела на рефлекторном уровне.
Выборка: 596 людей разного возраста, образования и т.д.
Результат: лишь 13 из 596 не сумели освоиться с новой телесной возможностью. Исследователи очередной раз подтвердили, что мозг легко справляется; так что технологические расширения наших тел (например, экзоскелеты всех сортов) могут быть вполне массовыми и легко осваиваемыми. Хотя, следуя моде, авторы в основном обсуждают, что во всех таких устройствах инклюзивность должна быть заложена by design, а не то, насколько легко и просто стать киборгом:)
https://www.inverse.com/health/third-thumb-study
@startobus 🧠 запуск идей с AI
Суть дела: дать человеку механический шестой палец на руке с управлением от датчиков, скажем, где-то под пяткой ноги. Никаких ИИ и инвазивных операций.
Смысл: изучить, насколько быстро и насколько массово мозг людей справится с изменением телесной архитектуры и начнет использовать новые расширенные возможности тела на рефлекторном уровне.
Выборка: 596 людей разного возраста, образования и т.д.
Результат: лишь 13 из 596 не сумели освоиться с новой телесной возможностью. Исследователи очередной раз подтвердили, что мозг легко справляется; так что технологические расширения наших тел (например, экзоскелеты всех сортов) могут быть вполне массовыми и легко осваиваемыми. Хотя, следуя моде, авторы в основном обсуждают, что во всех таких устройствах инклюзивность должна быть заложена by design, а не то, насколько легко и просто стать киборгом:)
https://www.inverse.com/health/third-thumb-study
@startobus 🧠 запуск идей с AI
Inverse
This Wild Study Gave People An Extra Thumb — And Watched Them Thrive
A new study gave people a third thumb and had them do basic tasks. The finding could change the way we see robotics.
53. Мне сегодня 53…
Могу вспомнить много про прошлое: как в детстве бегали по стройке и жевали гудрон вместо жевачки или как дважды поступал в Бауманку, как запускали партию или первый канал, как делали рекламу для самых крутых мировых компаний и запускали стартапы.
Но следующие 53 - это еще интереснее: преподавание и новые ии-проекты и полеты на своих Flyber’ах, внуки и правнуки и, надеюсь, новая еда, которая без усилий будет держать вес и здоровье в норме.
Спасибо время, ты самое интересное!
@startobus 🧠 запуск идей с AI
Могу вспомнить много про прошлое: как в детстве бегали по стройке и жевали гудрон вместо жевачки или как дважды поступал в Бауманку, как запускали партию или первый канал, как делали рекламу для самых крутых мировых компаний и запускали стартапы.
Но следующие 53 - это еще интереснее: преподавание и новые ии-проекты и полеты на своих Flyber’ах, внуки и правнуки и, надеюсь, новая еда, которая без усилий будет держать вес и здоровье в норме.
Спасибо время, ты самое интересное!
@startobus 🧠 запуск идей с AI
❤4🎉3🔥1
Label Studio - замечательный Open Source проект для оценки и разметки данных.
Например, если нужно быстро разметить кучу документов на обучение и валидацию модели для table layout detection (ибо ну нет нормальных)
Label Studio работает с картинками, текстами, аудио, временными рядами и видео.
Если не пробовали, то всячески советую потыкать палочкой.
Ваш, @llm_under_hood 🤗
@startobus 🧠 запуск идей с AI
Например, если нужно быстро разметить кучу документов на обучение и валидацию модели для table layout detection (ибо ну нет нормальных)
Label Studio работает с картинками, текстами, аудио, временными рядами и видео.
Если не пробовали, то всячески советую потыкать палочкой.
# Install the package
# into python virtual environment
pip install -U label-studio
# Launch it!
label-studio
Ваш, @llm_under_hood 🤗
@startobus 🧠 запуск идей с AI
👍1
БИОФОРТЕФИКАЦИЯ
и скрытый голод
В Nature в январе опубликовали интересную работу.
Называется так: "Вклад биофортификации в смягчение последствий дефицита микроэлементов".
Это попытка осмыслить текущий статус проблемы "скрытого голода" и дефицита различных микронутриентов в рационе современного человека.
Там же обзор различных технологических решений в селекции и генетике, которые направлены на выведение известных сортов расстений с повышенным содержанием тех или иных микроэлементов.
Сегодня наиболее распостраненное направление решения проблемы «скрытого голода» - это обогащение пищи. Здесь же предлагают опуститься по технологической цепочке на поле и поискать решения там.
Мы эту работу перевели.
Почитать можно здесь.
А завтра на Deepfoodtech конференции весь день посвятим теме - "еда как лекарство". Про скрытый голод обязательно поговорим.
@startobus 🧠 запуск идей с AI
и скрытый голод
В Nature в январе опубликовали интересную работу.
Называется так: "Вклад биофортификации в смягчение последствий дефицита микроэлементов".
Это попытка осмыслить текущий статус проблемы "скрытого голода" и дефицита различных микронутриентов в рационе современного человека.
Там же обзор различных технологических решений в селекции и генетике, которые направлены на выведение известных сортов расстений с повышенным содержанием тех или иных микроэлементов.
Сегодня наиболее распостраненное направление решения проблемы «скрытого голода» - это обогащение пищи. Здесь же предлагают опуститься по технологической цепочке на поле и поискать решения там.
Мы эту работу перевели.
Почитать можно здесь.
А завтра на Deepfoodtech конференции весь день посвятим теме - "еда как лекарство". Про скрытый голод обязательно поговорим.
@startobus 🧠 запуск идей с AI
Какой-то «черный понедельник» для ChatGPT. Сервис лежит весь день с периодическими подъемами. У вас как?
@startobus 🧠 запуск идей с AI
@startobus 🧠 запуск идей с AI
👏1
Манхэттенский проект - 2.0
Бывший сотрудник команды Ильи Суцкевера, отвечавшей в OpenAI за безопасность моделей ИИ, Леопольд Ашенбреннер выпустил аналитический документ о ближайшем будущем ИИ (а вот тут разговор с ним), в котором в частности утверждает, что в ближайшие несколько лет, на горизонте 26-28 года в США неизбежно (вне зависимости от того, кто станет президентом) возникнет государственный проект по созданию «суперинтеллекта» по аналогии с Манхэттенским, поскольку, как и с ядерной бомбой, даже месяцы преимущества в его создании станут критическими для будущего страны.
Сверхинтеллект – это в буквальном смысле аналог ядерной бомбы. А потому государству придется национализировать его создание (не хотите же вы, чтобы у стартапов из Сан-Франциско, типа Убера, было по ядерной кнопке? Представьте Илона Маска с бомбой в одной руке и косяком в другой).
Для самых патриотически озабоченных: Россия в докладе упоминается пару раз наряду с Северной Кореей, как государство-изгой, от которого будет необходимо оборонять секреты AGI, чтобы она потом не держала весь мир в заложниках, а главным противником Леопольд видит Коммунистическую партию Китая (именно так, а не страну Китай), способную сегодня украсть любой технологический секрет из совершенно не готовых к этому частных лабораторий:
Апокалиптическая картина, но напомню, чувак долго работал в самом сердце самого передового ИИ-разработчика.
По его мнению мы сейчас примерно в районе 1939 года, когда Эйнштейн написал подготовленное Сцилардом письмо президенту Рузвельту с предупреждением о разработке атомной бомбы в Третьем Рейхе и о необходимости начала широкомасштабных атомных исследований в США. В какой-то момент правительству придется объединить всех этих частных исследователей в одну супер-лабораторию по аналогии созданной в 40-е в пустыне в Лос-Аламосе ядерной лаборатории, считает он. Это потребуется для обеспечения безопасности исследований, в том числе физической.
«До встречи в пустыне», — так заканчивается документ.
Бывший сотрудник команды Ильи Суцкевера, отвечавшей в OpenAI за безопасность моделей ИИ, Леопольд Ашенбреннер выпустил аналитический документ о ближайшем будущем ИИ (а вот тут разговор с ним), в котором в частности утверждает, что в ближайшие несколько лет, на горизонте 26-28 года в США неизбежно (вне зависимости от того, кто станет президентом) возникнет государственный проект по созданию «суперинтеллекта» по аналогии с Манхэттенским, поскольку, как и с ядерной бомбой, даже месяцы преимущества в его создании станут критическими для будущего страны.
Сверхинтеллект – это в буквальном смысле аналог ядерной бомбы. А потому государству придется национализировать его создание (не хотите же вы, чтобы у стартапов из Сан-Франциско, типа Убера, было по ядерной кнопке? Представьте Илона Маска с бомбой в одной руке и косяком в другой).
Для самых патриотически озабоченных: Россия в докладе упоминается пару раз наряду с Северной Кореей, как государство-изгой, от которого будет необходимо оборонять секреты AGI, чтобы она потом не держала весь мир в заложниках, а главным противником Леопольд видит Коммунистическую партию Китая (именно так, а не страну Китай), способную сегодня украсть любой технологический секрет из совершенно не готовых к этому частных лабораторий:
При нынешнем курсе мы можем отказаться от любых американских усилий в области AGI; Китай может быстро украсть все алгоритмические прорывы и модельные веса (буквально копию суперинтеллекта) напрямую. Неясно даже, сможем ли мы при нынешнем курсе достичь «защищенной от Северной Кореи» безопасности сверхинтеллекта. В мире частных стартапов, разрабатывающих АГИ, суперинтеллект распространится на десятки государств-изгоев. Это просто несостоятельно.
Чтобы избежать этого в будущей конструкции международной безопасности придется использовать режим нераспространения AGI так же, как он действует сейчас в области ядерного оружия, уверен Ашенбреннер. И США не справятся одни, придется создать международную коалицию, как из западных стран, так и не слишком демократичных, чтобы обеспечить безопасность AGI (в частности – цепочку поставок чипов), а после создать структуры типа МАГАТЭ.
И вот к 27/28 наступает эндшпиль. К 28/29 году начнется взрывное развитие интеллекта; к 2030 году мы соберем суперинтеллект во всей его силе и мощи. Перед теми, кого поставят во главе проекта, будет стоять чертовски сложная задача: создать AGI, причем быстро; перевести американскую экономику на военные рельсы, чтобы произвести сотни миллионов графических процессоров; утвердить все это, вычистить шпионов и отразить тотальные атаки Компартии Китая; каким-то образом управлять сотней миллионов AGI, яростно автоматизирующих исследования ИИ, совершающих десятилетний скачок за год и вскоре создающих системы ИИ, намного более умные, чем самые умные люди; как-то удержать ситуацию, чтобы она не сошла с рельсов и не породила сверхинтеллект-изгоя, который попытается захватить контроль у своих человеческих надсмотрщиков; использовать эти сверхинтеллекты для разработки новых технологий, которые будут необходимы для стабилизации ситуации и опережения противников, быстро перестраивая вооруженные силы США для их интеграции; и при этом ориентироваться в самой напряженной международной ситуации, которую когда-либо приходилось наблюдать. И лучше бы они были хороши в этом, скажу я вам.
Апокалиптическая картина, но напомню, чувак долго работал в самом сердце самого передового ИИ-разработчика.
По его мнению мы сейчас примерно в районе 1939 года, когда Эйнштейн написал подготовленное Сцилардом письмо президенту Рузвельту с предупреждением о разработке атомной бомбы в Третьем Рейхе и о необходимости начала широкомасштабных атомных исследований в США. В какой-то момент правительству придется объединить всех этих частных исследователей в одну супер-лабораторию по аналогии созданной в 40-е в пустыне в Лос-Аламосе ядерной лаборатории, считает он. Это потребуется для обеспечения безопасности исследований, в том числе физической.
«До встречи в пустыне», — так заканчивается документ.
Dwarkesh
Leopold Aschenbrenner — 2027 AGI, China/US super-intelligence race, & the return of history
The trillion dollar cluster...
🔥1
Но не будем драматизировать.
Для таких вычислений нужно будет в 10 тыс раз больше энергии: - сегодня большой дата-центр это единицы или десятки мегаватт, но с ИИ потребность вырастет на, как минимум, 4 порядка (x 10,000)
Писал про это раньше:
- https://t.me/startobus/3285
- https://t.me/startobus/3286
Возможно все это пшик - новые «Звездные войны» начала 80-х, которые объявил Рональд Рейган - амбициозный проект, который оказался пшиком.
Но если что - Россия - мировой лидер в атомной энергетике и обогащении урана. Да и проектировать чипы и решать сложнейие инженерные задачи в росатоме не разучились. Так что запасаемся попкорном.
Чем мы можем быть полезны - делать объективные датасеты - без перекосов на толерантность и перверсии).
@startobus 🧠 запуск идей с AI
Для таких вычислений нужно будет в 10 тыс раз больше энергии: - сегодня большой дата-центр это единицы или десятки мегаватт, но с ИИ потребность вырастет на, как минимум, 4 порядка (x 10,000)
мы увидим единый вычислительный кластер стоимостью в триллион долларов в течении пяти лет. самая рациональная инвестиция со стороны state actors и big tech — это compute, атомная энергия и инфраструктура для первых двух.
Писал про это раньше:
- https://t.me/startobus/3285
- https://t.me/startobus/3286
Возможно все это пшик - новые «Звездные войны» начала 80-х, которые объявил Рональд Рейган - амбициозный проект, который оказался пшиком.
Но если что - Россия - мировой лидер в атомной энергетике и обогащении урана. Да и проектировать чипы и решать сложнейие инженерные задачи в росатоме не разучились. Так что запасаемся попкорном.
Чем мы можем быть полезны - делать объективные датасеты - без перекосов на толерантность и перверсии).
@startobus 🧠 запуск идей с AI
Telegram
STARTOBUS
Анализ драверов роста и тормозов в ИИ.
На картинке представлена воронка-экосистема ИИ по поличеству учатников:
🚀 Уровень 1: Прикладники ИИ
Сейчас более 3 млн команд трудятся над прикладными решениями на базе ИИ. Большая часть этих решений переходит в магазины…
На картинке представлена воронка-экосистема ИИ по поличеству учатников:
🚀 Уровень 1: Прикладники ИИ
Сейчас более 3 млн команд трудятся над прикладными решениями на базе ИИ. Большая часть этих решений переходит в магазины…
👍1
Как управлять сверхинтеллектом?
Если ИИ, превосходящий человека во всем, включая обман, ложь, жажду власти, грядет относительно скоро, то каким образом мы можем контролировать его? Как гарантировать что военный ИИ управляющий тысячами дронов будет слушаться приказа? Или финансовый ИИ не решить поддержать себя, вместо экономики? И то, и другое делают сегодня люди вместо ИИ, но мы хотя бы понимаем как их можно контролировать.
В нашумевшей статье приводится много деталей о подходах к superalignment — техническим подходам к управлению и согласованию целей ИИ с нашими, понимании его работы, созданию доверия между человеком и сверхумной машиной.
Если/когда AGI будет достигнут, то текущие методы контроля (RLHF, возможность читать текст “мыслей” модели типа chain-of-thought) перестанут работать. Одновременно с этим, скорость развития ИИ только увеличится, ибо первой работой AGI будет профессия “ИИ исследователь/инженер” и появятся миллионы ИИ-агентов делающих ИИ-рисерч. Сверх-ИИ вряд ли будет “рассуждать” в токенах английского языка, ибо это критически неэффективно, даже в текущих моделях.
Технически и математически Superalignment возможен, но все описанные подходы сводятся к тому, что для контроля и оценки более мощного ИИ используется более слабый, но которому мы точно можем доверять. Вот почему:
- Оценка результата модели всегда сильно проще, чем генерация. Это значит, что более слабый интеллект будет в состоянии оценивать качество работы более сильного.
- Автоматизация надзора, в частности когда более слабая модель проверяет не весь спектр способностей более мощной, а только очень узкую их часть. Например, написание кода без бекдоров и ошибок.
- Модели генерализируют. Это значит, что если модель обучена давать честный ответ на простые задачи, то есть основания предполагать, что её поведение будет таким же с более сложными, не подсильными человеческому интеллекту, задачами.
- Механистическая интерпретация, то есть МРТ модели в процессе её работы. Определение конкретных мест в процессе выполнения модели, которые отвечают за “честность” или “следование инструкциям”.
С точки зрения вычислений, это значит что для эффектиной суперзащиты от супер-ИИ потребуется как минимум столько же энергии и серверов для AGI, работающих над защитой по сравнению с теми, которые занимаются рисерчем и созданием еще более мощных AGI.
@startobus 🧠 запуск идей с AI
Если ИИ, превосходящий человека во всем, включая обман, ложь, жажду власти, грядет относительно скоро, то каким образом мы можем контролировать его? Как гарантировать что военный ИИ управляющий тысячами дронов будет слушаться приказа? Или финансовый ИИ не решить поддержать себя, вместо экономики? И то, и другое делают сегодня люди вместо ИИ, но мы хотя бы понимаем как их можно контролировать.
В нашумевшей статье приводится много деталей о подходах к superalignment — техническим подходам к управлению и согласованию целей ИИ с нашими, понимании его работы, созданию доверия между человеком и сверхумной машиной.
Если/когда AGI будет достигнут, то текущие методы контроля (RLHF, возможность читать текст “мыслей” модели типа chain-of-thought) перестанут работать. Одновременно с этим, скорость развития ИИ только увеличится, ибо первой работой AGI будет профессия “ИИ исследователь/инженер” и появятся миллионы ИИ-агентов делающих ИИ-рисерч. Сверх-ИИ вряд ли будет “рассуждать” в токенах английского языка, ибо это критически неэффективно, даже в текущих моделях.
Технически и математически Superalignment возможен, но все описанные подходы сводятся к тому, что для контроля и оценки более мощного ИИ используется более слабый, но которому мы точно можем доверять. Вот почему:
- Оценка результата модели всегда сильно проще, чем генерация. Это значит, что более слабый интеллект будет в состоянии оценивать качество работы более сильного.
- Автоматизация надзора, в частности когда более слабая модель проверяет не весь спектр способностей более мощной, а только очень узкую их часть. Например, написание кода без бекдоров и ошибок.
- Модели генерализируют. Это значит, что если модель обучена давать честный ответ на простые задачи, то есть основания предполагать, что её поведение будет таким же с более сложными, не подсильными человеческому интеллекту, задачами.
- Механистическая интерпретация, то есть МРТ модели в процессе её работы. Определение конкретных мест в процессе выполнения модели, которые отвечают за “честность” или “следование инструкциям”.
С точки зрения вычислений, это значит что для эффектиной суперзащиты от супер-ИИ потребуется как минимум столько же энергии и серверов для AGI, работающих над защитой по сравнению с теми, которые занимаются рисерчем и созданием еще более мощных AGI.
@startobus 🧠 запуск идей с AI
👏2🥰1
Новости
1️⃣ Совпадение? ChatGPT, Claude и Perplexity вышли из строя одновременно. А как вы проводили время без любимых AI?
2️⃣ Машины уже не в приоритете. Илон Маск попросил Nvidia направить тысячи чипов, зарезервированных для Tesla в xAI. Этот парень держит нос по ветру.
3️⃣ Малинки, Малинки, такие вечеринки... Компания Raspberry Pi сотрудничает с Hailo (внимательно читаем), чтобы предоставить опциональное AI-дополнение для своих микрокомпьютеров.
4️⃣ Cisco Live 2024: Cisco объявляет о новых инновациях и инвестициях, на рынке искусственного интеллекта, которые помогут заказчикам открыть более безопасное будущее. Компания планирует привлечь в ИИ-проекты 1млрд долларов
5️⃣ Основатель Zoom говорит о больших планах в области корпоративного программного обеспечения, в том числе позволяя вашим "цифровым двойникам", работающим на основе искусственного интеллекта, посещать собрания за вас.
6️⃣ Когда-то (в 2017 вроде) это была 1-апрельская шутка. Но, как известно, в каждой шутке есть доля шутки. Nvidia анонсировала ИИ-помощника в играх. Считать дамаги в Героях Меча и Магии станет проще?
7️⃣ Все технологические гиганты говорят об ИИ, забывая о нуждах пользователей. Вот и Apple, по некоторым инсайдам, посвятит WWDC 2024 интеллекту искусственного происхождения, а аппаратная часть останется без внимания.
8️⃣ Оно живое (это я про Hitachi)! Hitachi и Microsoft заключили знаковое соглашение об ускорении бизнес и социальных инноваций с помощью генеративного ИИ
@startobus 🧠 запуск идей с AI
1️⃣ Совпадение? ChatGPT, Claude и Perplexity вышли из строя одновременно. А как вы проводили время без любимых AI?
2️⃣ Машины уже не в приоритете. Илон Маск попросил Nvidia направить тысячи чипов, зарезервированных для Tesla в xAI. Этот парень держит нос по ветру.
3️⃣ Малинки, Малинки, такие вечеринки... Компания Raspberry Pi сотрудничает с Hailo (внимательно читаем), чтобы предоставить опциональное AI-дополнение для своих микрокомпьютеров.
4️⃣ Cisco Live 2024: Cisco объявляет о новых инновациях и инвестициях, на рынке искусственного интеллекта, которые помогут заказчикам открыть более безопасное будущее. Компания планирует привлечь в ИИ-проекты 1млрд долларов
5️⃣ Основатель Zoom говорит о больших планах в области корпоративного программного обеспечения, в том числе позволяя вашим "цифровым двойникам", работающим на основе искусственного интеллекта, посещать собрания за вас.
6️⃣ Когда-то (в 2017 вроде) это была 1-апрельская шутка. Но, как известно, в каждой шутке есть доля шутки. Nvidia анонсировала ИИ-помощника в играх. Считать дамаги в Героях Меча и Магии станет проще?
7️⃣ Все технологические гиганты говорят об ИИ, забывая о нуждах пользователей. Вот и Apple, по некоторым инсайдам, посвятит WWDC 2024 интеллекту искусственного происхождения, а аппаратная часть останется без внимания.
8️⃣ Оно живое (это я про Hitachi)! Hitachi и Microsoft заключили знаковое соглашение об ускорении бизнес и социальных инноваций с помощью генеративного ИИ
@startobus 🧠 запуск идей с AI
CNBC
Elon Musk ordered Nvidia to ship thousands of AI chips reserved for Tesla to X and xAI
Emails circulated inside Nvidia show that Elon Musk was telling the chipmaker to prioritize shipments of GPUs to X and xAI ahead of Tesla.