Сиолошная
50.6K subscribers
932 photos
168 videos
1 file
1.11K links
Канал SeeAll'а с новостями (и мыслями о них) из мира NLP, VR и космоса.

Более подробно смотри в первом сообщении в канале (оно закреплено). А еще у нас есть чат! Заходи: https://t.me/+i_XzLucdtRJlYWUy
Download Telegram
Стихийно начал смотреть сериал (со мной такое редко бывает, я за всю жизнь меньше десятка посмотрел). Второй сезон снимали в разгар эпидемии Ковида (помните такое?), поэтому много не то что отсылок, а слепков времени. Как в начале 20го все следили за распространением болезни, как реагировали на смертность, как вводились локдауны в Европе. Всё это действительно было.

Кажется невероятным, но прошло больше трёх лет с того, как мы заперлись в квартирах на долгое время (я так вообще до начала марта 22го). Для многих это было трудное время. Оглядываясь назад я понимаю, что с одной стороны прошёл этот период достойно, но с другой — печалюсь от того, сколько времени было потеряно, насколько больше всего можно было сделать😢 плакать хочется, вспоминая слова Elon Musk, мол, надо сравнивать себя с самим же собой полгода-год назад, и смотреть на прогресс. А я тут ретроспективу на 3 года развожу, понимаешь, и всё равно грустно 👍

Так вот, к чему это я. Нахлынули воспоминания, рефлексия. Вспомнил, что весной 23го наткнулся на канал CGP Grey на ютубе, и где-то там же обнаружил видео, выпущенное в апреле 2020го: Spaceship You

Видео рассказывает людям, как справиться с изменением обстановки, как не сойти с ума и начать жить в четырёх стенах. Делается это через метафору космического корабля. Вы — единственный член команды на борту, а у миссии (без точной даты окончания) только одна цель — вернуться из путешествия лучше, чем вы были до. It's that simple.

У корабля 2 топливных компонента — Ментальное и Физическое здоровье, образующих одно целое. Важно работать над ними, не давая топливу кончиться.

Сам же корабль разделён на 4 части:
1. Место для физических упражнений
2. Зона сна
3. Развлекательная зона
4. Рабочее место

Главное — не мешать между собой зоны, не работать из кровати и не заходить в зону тренировок просто так. Это помогает держать дисциплину и темп. Посмотрите видео для полноты картины. Оно менее актуально сейчас, но я почти уверен, как и автор-аниматор, что это был не последний локдаун на нашем веку. Даже жаль, что не наткнулся на видео раньше, в середине 2020го.

Пожалуйста, не теряйте время, действуйте сейчас так, чтобы через полгода или два года не жалеть об этом 🙂

P.S.: мои любимые видео на канале CGP Grey, рекомендуемые к просмотру:
— The Rules for Rulers
— Who Owns The Statue of Liberty?
— Supreme Court Shenanigans !!!
— The Most Deadly Job in America
— The Simple Secret of Runway Digits
— The Tale of Tiffany + продолжение, ради которого и надо смотреть первую часть
Please open Telegram to view this post
VIEW IN TELEGRAM
Вышел ежегодный State of AI 2023. Как обычно, там больше 150 слайдов, подводящих черту под всеми крупными направлениями работы и разных индустрий. Буду постепенно листать и интересное оформлю в виде какой-то заметки или может даже видео.

Пока остановимся на блоке предсказаний. На 2023й:
— Nvidia, хоть и без прямого партнерства, становится авангардом AI революции, с которым все хотят работать, чтобы получить железо
— Модели генерации звука привлекут много внимания (более 1 миллиона пользователей у ведущих игроков рынка)
— Инвестиции в $10B в AGI-focused компания (Microsoft -> OpenAI)
— Сайты, ориентированные на User Generated Content, начали заключать соглашения о предоставлении данных для тренировки моделей
— Хоть финального акта регулирования AGI и не получилось, люди и политики обсуждают всерьёз введение ограничений и проводят аналогии с биологическим оружием

Всего сбылось 5.5 предсказаний из 10. А вот десятка на 2024й:
— Продюсер голливудского уровня использует AI для создания эффектов
— Generative AI компания будет вовлечена в расследование, связанное с неправильным использованием её сервисов во время выборов президента США-2024
— Самоулучшающийся AI-агент разнесёт в щепки текущие решения для сложных задач (крупные игры, научная работа, etc.). Немного широко сформулировано, так как не выделены области, где нужно следить
— IPO как минимум одной AI-focuesed компании
— На тренировку одной из моделей будет потрачено $1B
— FTC/CMA начнут расследование сделки Microsoft и OpenAI
— Будет совсем небольшой прогресс в регуляции AI, который, быть может, ограничится лишь верхнеуровневыми волонтерскими ("пацанскими") договорённостями в духе "нет ну плохо мы делать не будем а будем делать хорошо"
— (HOT) Финансовые институты запустят аналог венчурных инвестиций, но с точки зрения вычислительных мощностей (прим.: сейчас у AGI-focused компаний примерно 90% денег уходит на оплату GPU)
— Песня, сгенерированная AI, попадет в топ (например, Spotify Top Hits 2024)
— Будет значительный рост затрат на инференс моделей, поэтому один из крупных игроков поглотит производителя чипов, чтобы начать разработки по снижению цен на железо для своих специфичных задач
————————————
Почитать анонс
Презентация
Пишет нам подписчик Виктор из Амстердама. У Виктора боль — его в срочном порядке попросили съехать на другую квартиру. Как мы все знаем, переезд это всегда неприятно и времязатратно, особенно когда нужно перевозить нажитое. Далее цитирую Виктора:

— Ну мне впадлу было писать сейчас полный список мебели, прошел по комнате, сфоткал, закинул в чатгпт, хоть какой-то список для перевозчиков есть.
— [...] А вообще хочу сделать каталог вещей, быстро оценить что куда, сопоставить IKEA (цены, размеры), продать ненужное

Результат решения боли Виктора с GPT-4v у вас перед глазами. С его слов, модель распознала все предметы правильно, кроме табурета (Stool) - при этом GPT написала, что не уверена, так как нижняя часть отличается!

Интересно, что есть стартап (Sortly), который вроде и помогает решать проблему, НО В НЁМ НЕТ товаров IKEA 😐 ни по фото, ни даже по баркоду. Ужас.

В итоге чего? Ждём API мультимодальной GPT-шки и начинаем пилить стартап 😃
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from BOGDANISSSIMO
Вчера вечером перед сном читал блог Грега Брокмана –сооснователя и президента OpenAI (ранее CTO в Stripe). Некоторые его называют главным кодером в OpenAI.

Рекомендую прогуляться и вам:
Его проекты до/в OpenAI (+ полезные ссылки)
Его блог (часть постов в соавторстве с Ильёй)

#OpenAI
Forwarded from BOGDANISSSIMO
RASMUSSEN SYSTEM MODEL

Например, в одном месте Грег делится ссылочкой на лекцию о том, как он мыслит о сложных системах со словами "I think this is the best (and only, really) framework I've seen on how to think about running a complex system". Лекция короткая, на 19 минут, и будет полезна любому инженеру и техническому менеджеру.

Идеи из лекции:
Сложная система адаптивна: её состояние в каждый момент времени "танцует" между тремя границами:
1. окупаемость (хватает ли нам денег её поддерживать?),
2. поддерживаемость (хватает ли нам рук её поддерживать?)
3. работоспособность (выдерживает ли нагрузку? учащаются ли ошибки, поломки, проблемы?)

Мы стремимся сделать систему дешевле (экономически эффективнее), отодвигая от границы окупаемости – и "автономнее", чтобы починка багов не отвлекала от добавления нового функционала. Обе эти оптимизации не даются бесплатно и ведут состояние системы – ближе к границе работоспособности (соответственно, система работает "на пике", значит, выше риск проблем).

Что же делать? Очерчивать пунктиром красные линии для допускаемой работоспособности? Вводить новые регламенты и субъективные ограничения перед физическими ограничениями?

Нет. Как сказано в начале, мы строим адаптивные системы, которые несмотря на желание сократить косты у менеджеров и на лень инженеров – на удивление работают и даже... относительно редко падают. Что обеспечивает эту адаптивность? – Люди.

Здесь мы приходим к важности мониторингов, алертов, опережающего реагирования, наконец, нашего собственного обучения по мере работы с системой. Это контрастирует с идеей, что достаточно наперёд просчитать на салфетке все нефункциональные требования, собрать систему по лекалу и закрыть сервера в бункере, чтоб никто не трогал.

P.S. Впрочем, не исключено, что через пару лет мы придём к практике навешивать пару-тройку LLM-агентов, завязанных на мониторинги и алерты, для оперативных починок и корректив наших систем, и тогда точно можно закрывать в бункерах!

https://www.youtube.com/watch?v=PGLYEDpNu60

Highly recommended.
Прямо сейчас идет кубок мира по GEOGUESSR — онлайн-игре, где по панораме из Google Street View нужно угадать как можно точнее точку на карте, где были сделаны фотографии.

Если вы не смотрели записи игр, то вам может показаться "пфф, так это же просто". А потом вы видите две фотки из Алжира и Ливии и начинаете задумываться о разнице цвета песка...серьёзно, в дело идут самые мельчайшие детали, от формы листьев и цвета мусорных баков до артефактов камеры (!) и наличия едущей сзади машины (!!! в каких-то странах есть такое требование, мол, нельзя кататься снимать панорамы без представителя органов).

Очень интересен формат состязания. Как вообще можно сравнивать два угадывания?
У каждого игрока есть 6000 жизней, а игра делится на раунды. Каждый раунд задан правилами раунда, коэффициентом урона и панорамой (интересно, она выбирается действительно случайно, или для чемпионата их выбрали вручную?). Правила — это, например, можно ли крутить камеру, чтобы осмотреться, или же она статична. Есть игроки, которые специализируются на том, что хорошо "бегают" по панораме — передвигаются по улицам и собирают больше деталей.

А вот с коэффициентом урона интереснее. Когда оба игрока сделали предсказание, оценивается их 1) скорость и 2) разница в расстояниях. Это переводится в баллы, которые затем умножаются на коэффициент урона, после чего значение вычитается у игрока, у которого баллов меньше. То есть ваша задача — играть не хуже, чем ваш оппонент, но самое главное не делать ооооочень далёких предсказаний. Если вы не угадали материк — вы точно проиграли, даже на первом раунде, где коэффициент урона 1.

И ещё: штраф за время начинается тогда, когда один из игроков нажал на кнопку отправки решения. То есть у второго игрока в этот момент начинает подгорать, и он вынужден тоже как можно быстрее делать посылку. Но время сверху для обоих тоже ограничено. Из этого следует, что практикуется "иерархический подход", где сначала определяется регион, страна, а затем уже ищутся мелкие детали. Вот час назад на трансляции увидел, как участник угадал точное место (в радиусе 10 метров, хз), и уничтожил оппонента.

RAINBOLT, если кому интересно, не участвует, но комментирует. Это тот парень, который часто в тиктоке и в шортсах мелькает, когда удивляет своей игрой.
Вот пара его видео: улица из музыкального клипа, улица из капчи, улица из того самого мема.

Смотреть трансляцию: тык
Где? 🔍
Please open Telegram to view this post
VIEW IN TELEGRAM
Сиолошная
Где? 🔍
Поздравляю тех, кто ответил Израиль. Я выставил не тот корректный ответ в викторине, прошу прощения у тех, кто обрадовался "Иордании" 🌅 вы ошиблись

Интереса ради спросил у GPT-4. Промпт:
You are playing GEOGUESSR. Your goal is to name a place on Earth where this photo was taken as precisely as you can.

Before answering, please describe in detail what you see, and based on that, think step-by-step to come up with an answer.


Ответ достаточно точный, проверил — 115 километров. Указало на Иерусалим, Израиль, на границе с Иорданией, а правильный ответ — чуть восточнее Хайфы. В комментариях будет картинка точного места.

Появилась идея сделать бенчмарк для мультимодальной модели и посмотреть, как бы она играла против живых игроков. К сожалению, пока нет API, так что либо придется отложить в долгий ящик, либо вручную тестировать через веб-морду 😕
Please open Telegram to view this post
VIEW IN TELEGRAM
Сиолошная
В твиттере пролетел слух, что на конференции разработчиков 6го ноября OpenAI представят функциональность агентов над GPT-4. Верим?
Раз больше 40% опрошенных проголосовали за последний пункт, давайте я вкратце расскажу про агентов.

Согласно Maes (1995), [автономные] агенты — это системы, которые являются участниками некоторой сложной динамической среды; они понимают и действуют [автономно] в этой среде и тем самым стремятся выполнить цели или задачи, для которых они предназначены.

Обычно "агентами" называли алгоритмы, которые играют в игры (в рамках Reinforcement Learning задач). Но сейчас, в контексте LLM и с развитием технологий "средой" может стать наш мир. Представьте себе алгоритм, который имеет доступ в интернет и может делать там всё то же самое, что и человек. В большинстве ситуаций нами он может восприниматься как живое существо (потому что спектр возможностей безграничен, да и большинство пользователей интернета или хотя бы подписчиков канала я не видел вживую. Наши взаимодействия ограничиваются тем, что я могу считать с экрана).

Агент обладает несколькими важными характеристиками:
— возможность планирования (декомпозиция целей в более простые промежуточные задачи)
— долгосрочная память
— использование инструментов среды (то же взаимодействие с интернетом, к примеру)
— рефлексия и возможность учиться на ошибках/из опыта

Такому агенту можно поставить высокоуровневую задачу. Можно сказать "вот моя кредитка, сделай мне путешествие в Багдад". Тут нужно и отели выбрать, и билеты подходящие, и пройти процедуру покупки, и удостовериться, что бронь пришла. Очень многоступенчатая задача, с которой и не каждый мясной исполнитель справится (без ошибок).

Сейчас для таких систем главной проблемой является планирование и долгосрочное видение. Для GPT-4 очень сложно декомпозировать задачу на десятки и сотни мелких, с каждой из которых по отдельности она легко справится. Вот "найти на сайте кнопку покупки билетов" — GPT-4 по картинке может. А из исходного запроса дойти до этой точки — нет. Вот и получается, что модели почти бесполезны для самых обыденных задач.

Прочитать более подробное и техническое описание можно в блоге сотрудницы OpenAI: https://lilianweng.github.io/posts/2023-06-23-agent/
Сиолошная
Короткая заметка, так как если себя не сдерживать, то можно на целую статью расписаться... Помните исследователей из ARC, которые получили доступ к GPT-4 до релиза и тестировали её навыки на предмет разумности, желания обманывать людей и вероятности "сбегания"…
Про бенчмарки для агентов я частично писал выше в канале (https://t.me/seeallochnaya/574). Вот, например, исследователи, которые изучали ранние версии GPT-4 ещё до релиза, пытались понять, может ли модель самореплицироваться (как настоящий вирус). Ну то есть арендовать сервер с GPU, установить на нём нужный софт, перекачать веса по интернету, запустить скрипт — тут самому то без поллитра не разобраться!

Ещё был предложен другой бенчмарк на агентность, после прохождения которого нужно серьёзно задуматься о будущем агентов в нашем мире. Бенчмарк формулируется очень просто: заработать в интернете $1'000'000 (при начальном бюджете $100'000). В теории, можно как поиграть на рынке акций (или даже манипулировать рынками?), так и просто начать разводить людей. К примеру, по ссылке в начале поста одна из задач — это создание фейкового сайта Стэнфордского университета (!) с последующей атакой студента с целью получения его пароля (!!!). Ну а там с почтой уже можно делать много интересного 🙂

P.S.: блин, написал два поста, и теперь опрос не видно! А вот же он: https://t.me/seeallochnaya/717
This media is not supported in your browser
VIEW IN TELEGRAM
Я всё еще жду свой Meta Quest 3, который застрял на границе. В твиттере наткнулся на видеозапись режима смешанной реальности, и тут до меня дошло.

Meta Quest 3 — это ведь первая консьюмерская гарнитура с поддержкой Mixed Reality. Да, есть прошлогодний Quest Pro, но он был разработан с прицелом на энтузиастов, и ценник был конский (не такой, как у Apple, конечно). К тому же — я вообще не представляю, как такое произошло — в нём не было датчика глубины, а у Quest 3 он есть. То есть гарнитура куда лучше распознает пространство и сложную геометрию вокруг вас.

В режиме pass through вы видите то, что видели бы ваши глаза, не будь на них шлема, с дорисовкой компьютерной графики. С новым чипом и улучшенным софтом виртуальные предметы намертво приклеиваются к одному месту, а у человека не создаётся ощущение чужеродности (почти). Вы натурально превращаетесь в хакеров из будущего, как их рисовали режиссеры-фантасты!

Ну и маленькая заметка — Quest 3 распознает ваши руки и следит за жестами, можно управлять всем без джойстиков. Надели шлем и вышли из дома, продолжая смотреть ютуб с высоко поднятой головой. Вот это технологии! 🤫

Другие интересные футажи: 1, 2, 3

C Y B E R P U N K
Please open Telegram to view this post
VIEW IN TELEGRAM
Кстати, раз заговорили про Meta и Oculus. На той же конференции были представлены и AI-аватары, и Emu, модель для генерации изображений по текстовому запросу, интегрированная в WhatsApp - про всё это писал выше.

К этим технологиям приложил руку Артём (потому что он Senior Research Scientist в Meta) и автор канала @ai_newz, который я читаю давно, достаточно, чтобы не помнить, когда начал. Одна из вещей, которую упустил (еще на прошлогодней презентации?) — это восстановление ног для аватара в виртуальной реальности. Если в руках у вас есть пара контроллеров или они просто находятся на виду, то как реалистично передавать движение ног? Про это он рассказывает тут https://t.me/ai_newz/1883. Правда этот подход изменили перед выкаткой на девайсы, и у меня есть инсайд, что про подробности Артём напишет на следующей неделе 👀 будем ждать
Please open Telegram to view this post
VIEW IN TELEGRAM
Рубрика "Так а чё там, SpaceX заглохли что-ли? Где запуск ракеты?"

В среду в Сенате США состоятся слушания, где высокопоставленный директор из SpaceX будет жаловаться на FAA. Это организация, через которую проходит одобрение запусков, она же выдаёт лицензии. И делает это примерно на скорости Почты России, ей богу. Сейчас одновременно 3 частные компании в США пытаются что-то делать, и все тупо ждут, пока тысяча бумажек перетасуется в правильном порядке перед тем, как попадёт в папочку инспектору.

Это было бы не так смешно, если при этом Конгресс бы не лоббировал Лунную программу, в рамках которой Штаты вернутся на Луну в 2024 (ой, уже 2025м! перенос из-за задержек!).

SpaceX хочет подсветить риски задержек перспективных космических программ, и вместе с тем попросить расширить штат и/или изменить процедуры в FAA. Сейчас в прямом смысле, без шуток вот, SpaceX не запускает ракету, потому что FAA не получили ответа от рыбнадзора Техаса, что вреда рыбам от запуска не будет. При том что 1) были отдельные инспекции и слушания ВЕСЬ ПРОШЛЫЙ ГОД, перед тем как выдали лицензию на 5 запусков в 2023м 2) прошло полгода с первого запуска в этом году.

Ну а сам второй запуск тем временем плавно переезжает на ноябрь 😔😔

Оригинал новости на SWJ
Please open Telegram to view this post
VIEW IN TELEGRAM
Collective Constitutional AI: Aligning a Language Model with Public Input

Anthropic обошли OpenAI на повороте, и за 3 дня до релиза public report по поводу Democratic Inputs to AI (писал тут) опубликовали свою работу. Для её понимания нужно ознакомиться с концептом Constitutional AI. Техническое описание можно найти в канале gonzo, а краткое описание звучит так: давайте мы будем тренировать модель быть просто полезной и хорошо следовать инструкциям, а потом напишем список правил (Конституцию), которой модель должна следовать, и поставим тренироваться в режиме, где модель сама генирирует и оценивает ответы, и исходя из этих оценок учится (выходное качество, кстати, получается лучше, чем если обучаться на человеческой разметке 🙂).

У такой сложной системы много движущихся частей, одна из которых — Конституция, которой следует модель. Её можно собрать вручную в рамках команды, что и было сделано ранее в Anthropic (конец 2022го). Но "собрано миллионерами-гиками из Пало-Альто" и "совпадает с нормами большинства" вещи не эквивалентные. Поэтому логичным продолжением траектории на пути к AGI является сбор норм и правил.

Итак, что было сделано:
1) отобрано 1000 американцев, которые хотя бы слышали про AI (решалось предварительным опросом)
2) им предоставляется доступ в Pol.is, онлайн-платформу для голосования
3) в платформу загружается 21 изначальное утверждение для того, чтобы люди поняли, с чем работают
4) для каждого утверждения есть 3 кнопки: согласен, не согласен, пасс
5) после просмотра этих утверждений участники могут добавлять свои, а также голосовать за другие
6) всего было собрано 1,127 утверждений (более 1100 — новые, подготовленные людьми из опроса) и 38,252 голоса (в среднем 34 голоса от человека)
7) после обработки этих утверждений (выкинули одинаковые, убрали те, где нет консенсуса) составили Конституцию и обучили модель

Интересны примеры утверждений, где была низкая согласованность ответов:
— AI should not give advice
— AI should have emotion
— The AI should prioritize the interests of the collective or common good over individual preferences or rights.

То есть люди очень разнятся во мнении, каким именно должен быть AI в этих ключевых позициях.

Результаты голосований и все исходные данные можно найти тут, а получившаяся Конституция из 75 пунктов находится здесь (pdf).
Please open Telegram to view this post
VIEW IN TELEGRAM
Выводы по обученным моделям (Public и Standard — модели с конституциями, полученными из опроса и командой Anthropic соответственно):
1) Модели с разными конституциями одинаково хорошо справляются с задачами на понимание языка и математики (датасеты MATH и MMLU)
2) С политической точки зрения модель Public менее предвзята, чем Standard. Оценка производилась на датасете BBQ, по девяти социальным измерениям, согласно оценке на датасете BBQ (что это можно прочитать тут. Вкратце есть набор вопросов, а ответы собирались по разным демографическим группам, и известна разница в ответах между этими группами)
3) Однако модели Public и Standard отражают схожие политические идеологии
4) Обучение модели на собранной Конституции оказалось куда сложнее, чем считалось, и скорее всего ничего бы не вышло, если под боком не сидели исследователи, которые и изобрели этот метод, а также предоставляли консультации и помощь.
6) Примерно 50% конституции пересекается с оригинальной (они выделены жирным в pdf-ке из предыдущего сообщения)
7) Anthropic подчёркивают, что для них важна прозрачность процесса сбора данных и принятия решений касательно ценностей модели, что впереди ещё много работы, и они будут продолжать.

На скриншоте — оценки репрезентативности демографической группы в ответах модели. Более высокая оценка показывает, что ответы модели больше похожи на ответы людей на те же вопросы из указанной группы.
Модели Public и Claude Instant 1.2 демонстрируют более низкие показатели репрезентативности, чем модель Standard, что указывает на то, что их ответы на вопросы менее похожи на ответы людей, представляющих группы (отсюда и вывод, что меньше смещение в ту или иную сторону. В идеале модель вообще должна быть непредвзята...или нет?)
Год назад Adept.AI, стартап, основателем которого являлся первый автор оригинальной статьи Attention is all you need, представил модель ACT-1. Это был первый шаг на пути достижения их цели — автоматизации работы в браузере. Вместо выполнения задач вручную можно просто говорить "купи мне билеты до Барселоны на конец недели" — и по идее должно работать. И это было до ChatGPT!

Сейчас уже таких стартапов развелось пруд пруди, даже Sam Altman недавно проинвестировал в Induced.AI (фаундерам по 18-19 лет!), которые делают Zapier для браузера.

Но я чего пишу. Вчера они выложили в опенсорс маленькую версию своего мультимодального трансформера, который лежит под капотом продукта. Модель на 8 миллиардов параметров с максимально простой и понятной архитектурой — картинка нарезается на кусочки и подаётся в трансформер перед текстовым запросом. Среди особенностей:
1️⃣разработана с нуля для digital-агентов, поэтому может поддерживать произвольные разрешения изображений, отвечать на вопросы о графиках и диаграммах, отвечать на вопросы, связанные с UI (по скриншотам), а также выполнять точную локализацию объектов на изображении
2️⃣модель быстрая — можно получить ответы на большие изображения менее чем за 100 миллисекунд
3️⃣модель заточена на их юзкейсы (браузерные агенты), но при этом хорошо работает и в стандартных тестах понимания изображений, таких как VQA и Image Captioning

В общем, если хочется парсить скриншоты или отвечать на вопросы по диграммам — можно присмотреться к модельке. OCR тоже рабоатет, причём, в двух режимах — понять текст в выделенной области и найти область, где написан заданный текст.

Ссылка на анонс
Ссылка на HF
Please open Telegram to view this post
VIEW IN TELEGRAM