nVision Digital AI בינה מלאכותית, טכנולוגיה חידושים, vibe coding ומה שבינהם
444 subscribers
369 photos
16 videos
1 file
390 links
הערוץ שמביא לכם חדשות על כל מה שחדש בתחום הAI, וה vibe coding , מודלים, כלים, וחידושים
Download Telegram
משהו מעניין,
פיג׳מה, גיטהאב ו vscode
יצרו לולאה דו כיוונית שמאפשרת לא רק המרה של פיגמה לקוד
אלא גם שינוי של הפיגמה בעקבות הקוד או כמו שהם כותבים את זה :

Figma MCP server can now generate design layers from VS Code

GitHub Copilot users can now connect to the Figma MCP server to both pull design context into code and send rendered UI to Figma as editable frames.
Together, these capabilities support a connected workflow: generate code from a design, send your UI back to Figma for iteration, and pull updates back into your codebase.
This feature is available today in VS Code and coming soon to Copilot CLI.

כל הפרטים פה

https://github.blog/changelog/2026-03-06-figma-mcp-server-can-now-generate-design-layers-from-vs-code/
1
לפני 4 שעות Google פרסמה מודל חדש בשם Gemini Embedding 2.
אז אנחנו הולכים לצלול רגע לRAG, אבל אנחנו נעשה את זה בצורה הכי פשטנית שאני יכול, כי אני מניח שחלק גדול פה הם לא אנשים סופר טכניים :)

בפשטות: Embedding זה כלי ש"מתרגם" כל סוג של תוכן – טקסט, תמונות, סרטונים קצרים, הקלטות קול וקבצי PDF – למערך מספרים (שקוראים לו ווקטור).
המערך הזה מייצג את המשמעות האמיתית של התוכן, כך שמחשב יכול להבין במהירות מה דומה למה, גם אם המילים שונות לגמרי.למה זה חשוב?
בד"כ כששאלתם צ'אט AI משהו על המסמכים, התמונות או הסרטונים שלכם, הוא היה צריך לנחש או להמציא חלק מהתשובה.
עם Gemini Embedding 2 ודומיו (כי ברור לכם שהוא לא המודל היחיד בשוק שעושה את זה) אפשר לבנות מערכת שקודם כל מוצאת את החומר הרלוונטי ביותר מתוך אלפי או מיליוני קבצים שלכם, ואז רק אחר כך נותנת תשובה מדויקת.
זה מפחית טעויות, חוסך זמן ומאפשר לעסקים ולמשתמשים פרטיים להשתמש בנתונים שלהם בצורה חכמה ומאובטחת.

ובכל זאת, אתם צריכים לשאול את השאלה - נדב, מה ההבדל בין Gemini Embedding 2 למודלים אחרים?

רוב המודלים הקיימים (כמו אלה של OpenAI או Cohere) עובדים רק על טקסט.
Gemini Embedding 2 הוא הראשון שמאחד את כל הסוגים – טקסט + תמונה + וידאו + אודיו – באותו מרחב.
אפשר לדוגמה לשלב טקסט עם תמונה באותה שאלה, או לחפש סצנה מסוימת בתוך סרטון לפי תיאור מילולי.
בנוסף, אפשר לבחור את אורך הווקטור לפי הצורך (קצר וזול יותר או ארוך ומדויק יותר), מה שהופך אותו לפרקטי גם לעסקים קטנים.

מה אפשר לעשות איתו בפועל?
קחו USE CASE פשוט טריוויאלי: יש לכם לקוח עורך דין? בניתם לו אפליקציה ?
המודל יכול למצוא במהירות את הסעיף הרלוונטי ב-10,000 חוזים.
אם אתם עובדים בחברת תוכן, היא יכולה להתאים אוטומטית תמונות או סרטונים לפוסטים.
בתאוריה, כל אחד יכול לבנות חיפוש חכם בתמונות המשפחתיות, בהקלטות השיחות או במסמכי העבודה שלו.
בתור מפתחים אתם יכולים לשלב את זה בתוך אפליקציות כדי שהצ'אט יבין גם תמונות וגם טקסט בלי להתבלבל
אגב, מחר, סוכן קולי? איך הוא ידע מה שעות הפתיחה של המרפאה או איך לפתור תקלה טכנית?

הינה המאמר
ואם תרצו שנצלול ממש לעומק של RAG, מה ההבדל בינו לבין FINE TUNING, ואיך זה עוזר למשתמש "רגיל" שהוא וויב קודר - תגידו ונשמח :)



https://x.com/GoogleAIStudio/status/2031421162123870239
4
משהו מעניין למי שבונה סוכנים Upstash Box – בעצם לתת לסוכנים מחשב משלהם

אז Upstash Box מספק סביבות ענן מבודדות ומאובטחות לחלוטין (secure cloud sandboxes) שכל AI agent יכול לקבל תוך שניות.

עם מערכת קבצים מלאה, shell, git, ואינטגרציה מובנית לכלים כמו Claude Code, Codex או OpenCode – הסוכן שלכם יכול לכתוב, להריץ ולערוך קוד בבטחה מלאה, בלי לסכן את המערכת הראשית.

הכי מגניב? הכול serverless: ה-Box "ישן" כשאין פעילות (zero idle cost), מתעורר תוך מילישניות, ומאפשר להריץ מאות או אלפי instances במקביל – במיוחד שימושי לאפליקציות multi-tenant. התמחור? רק על זמן CPU פעיל, סופר-חסכוני.

מי שבונה AI agents שצריכים להריץ קוד אמיתי – זה בדיוק הפתרון שחיכיתם לו.

🔗 https://upstash.com/pricing/box

#AI #Agents #Serverless #Upstash #

הפוסט המקורי פלוס סרטון הדגמה

https://x.com/upstash/status/2031408245194055689?s=46
1
יש לכם מנוי בבולט ?
לכבוד יום הpi שחל בשבת תקבלי (החל מ3:14 ) אפשרות לבנות בחינם. ואם אין לכם מנוי ובא לכם לקרוע להם את הצורה בתמורה למנוי חודשי זו גם אופציה
משתמשים בקלוד קוד ?
אם לא שמתם לב מעכשיו /btw מאפשר לכם שיחות ״צדדיות״ תוך כדי שיחה ראשית. עד היום פתחתם עוד טרמינל. מעכשיו /btw

הוא ממשיך לעבוד ואתם מדברים איתו 😁
😁1
Media is too big
VIEW IN TELEGRAM
עוד כלי וויבקודינג די מגניב באמת
עם השם הקליט anything שדיברתי עליו בעבר משלב את עיצובי הפיגמה בתוכו.

למי שמתעסק עם עיצוב היכולת לעבור מפיג׳מה (ככה הטלפון שלי אוהב. תתגברו על זה ) לקוד ועיצוב בתוך פלטפורמה של וויב תמיד הייתה נקודה כואבת

לפי הסרטון הם די פתרו את זה
מעניין להשוות את זה לחידוש של GitHub copilot מאתמול
פוסט שלא שמתי לב שלא נשלח. שולח מחדש.


אז הרגע Bolt.new השיקה היום תכונה חדשה ומשמעותית בשם Connectors, המבוססת על פרוטוקול MCP (Model Context Protocol).

בקיצור ? התכונה מאפשרת חיבור ישיר ושקוף בין הפלטפורמה לבין כלים עסקיים נפוצים כמו Notion, Linear, GitHub, Miro, Sentry ו-Jira.

לאחר חיבור חד-פעמי, ה-AI של Bolt יכול לקרוא, לכתוב ולבנות ישירות מתוך הנתונים האמיתיים של החברה – בלי צורך להעתיק-הדביק ידני או להעלות קבצים.

במקום שתכתבו פרומפט ארוך שמתאר את המסמכים או המשימות, Bolt פשוט "קורא" את ה-Notion שלכם, מושך מפרטי מוצר, הערות טכניות והנחיות מיתוג, והופך אותם להוראות ביצוע ממשיות. אותו דבר קורה עם Linear – אפשר לבקש לבנות פיצ'ר ישירות מתוך רשימת המשימות של הצוות, והמערכת תעבד את המשימה ותקדם אותה עד לייצור.

התוצאה: זרימות עבודה שהיו סטטיות הופכות לפעולות אוטומטיות מבוססות AI.

היתרון הגדול נמצא בגמישות – כל כלי שתומך בשרת MCP מרוחק יכול להפוך ל-Connector, והמשתמש שולט בדיוק במה ה-AI מורשה לקרוא, ליצור או לערוך.

בקיצור – Bolt הופכת את הכלים היומיומיים שלכם לשכבה חיה שמניעה בניית אפליקציות במהירות ובדיוק גבוהים יותר.

ועכשיו הביקורת שלי?
1. השתמשתי המון בבולט - לא ראיתי אותו מנצח כלים אחרים, התוצאה שלו הייתה זהה ל lovable למשל.
2. ⁠מצד שני לא ראיתי אותו מפסיד לכלים אחרים כמו lovable למעט העובדה שכלים אחרים הביאו את החיבורים של mcp כבר לפני שבועות ארוכים אם לא חודשים.
עוד אחד כזה

אז cursor שחררו היום את האופןקלו שלהם 🙄

https://cursor.com/blog/automations



אז חברת cursor שחררה תכונה חדשה בשם
Cursor Automations
היא תכונה חדשה שהושקה שמאפשרת ליצור סוכנים של בינה מלאכותית שתמיד פועלים
(always-on agents)
שרצים באופן אוטומטי על בסיס טריגרים מוגדרים מראש.

אז במקום שנצטרך להפעיל את ה-AI בכל פעם מחדש ולפקח עליו, מגדירים כללים כמו: "כשמגיעה התראת PagerDuty", "כל יום שישי ב-9:00", "כשנפתח pull request חדש" או "כשמישהו כותב הודעה מסוימת ב-Slack" – הסוכן מתעורר אוטומטית, מנתח את הקוד, מבצע משימות (למשל: בדיקת אבטחה, תיקון באגים קטנים, יצירת תיעוד, או אפילו כתיבת PR שלם), ומחזיר תוצאות עם הצעות לשיפור או diff מוכן לבדיקה.

הסוכנים פועלים בסביבות מאובטחות בענן, זוכרים מה למדו מהרצות קודמות, מבצעים בדיקות עצמיות כדי לוודא שהם לא טועים יותר מדי, ומשתלבים עם כלים כמו GitHub, Linear ו-Slack.


הרעיון המרכזי הוא להפוך משימות חוזרות ומשעממות (שגרת תחזוקה, code review אוטומטי, ניטור incidents) לאוטומטיות לחלוטין, כך שמפתחים יוכלו להתמקד בדברים היצירתיים והמורכבים יותר.

אז קודם כל - עוד סוג של גירסה אחרת של אופן קלו ושאלה טובה איך זה יעבוד עם כלל הקונספט של קוד בייס גדול.
1
עוד לא הספקתי לכתוב על זה
אבל לפני כמה ימים. יצאה גירסה 2.3 של חברת לייטריקס הישראלית

מי שיעשה retweet לטוויט הבא יקבל 800 קרדיטים חינם ב24 שעות הקרובות

בכללי אחלה חברה
המוצר שלה גם בקוד פתוח משמע תוכלו להשתמש בו בעצמכם אפילו בחינם

הראשונים להביא סרטון של 20 שניות לשוק
והמון המון פיצרים
(מתחת ללינק ביקשתי מai לספר לכם על כל השכלולים של הגרסה הזו מוזמנים לקרוא )

https://x.com/ltxstudio/status/2029922323336417450?s=46






- VAE משופר ומחודש
המרכיב הכי מדובר – latent space חדש + VAE מאומן על דאטה איכותי יותר → תמונות חדות בהרבה, טקסטורות ריאליסטיות יותר, קצוות נקיים, פרטים קטנים (פנים, אובייקטים, טקסט) נשמרים הרבה יותר טוב, במיוחד ברזולוציות גבוהות (4K).

- אודיו נקי ומשופר משמעותית
vocoder חדש + סינון דאטה (פחות רעשים, שתיקות מוזרות, ארטיפקטים)
→ סאונד יותר ברור, ליפ-סינק טוב יותר, פחות "רעש רקע מוזר" או ניתוקים, גם בדיאלוג וגם באפקטים/מוזיקה. האודיו נוצר במעבר אחד עם הווידאו – והוא נשמע הרבה יותר מקצועי עכשיו.

- הבנה של פרומפטים הרבה יותר חזקה (4× טובה יותר לפי חלק מהתיאורים)
גדילת ה-text connector (gated attention) + שימוש ב-Gemma 3 12B או מודלים דומים → הפרומפט מתורגם למציאות בצורה מדויקת יותר. תיאורי תנועה, זוויות מצלמה, כוריאוגרפיה, ביטויים – הכל יוצא קרוב יותר למה שביקשת בלי צורך ב"prompt engineering" מטורף.

- תמיכה נייטיב בווידאו פורטרט (Vertical / 9:16)
עד 1080×1920 (ואפילו 4K vertical בחלק מהמקרים) – המודל מאומן על חומר אנכי, לא "חותך" מ-landscape.
זה שינוי ענק ל-TikTok, Reels, Shorts, פרסומות לסטורי וכו'.

- שיפור דרמטי ב-Image-to-Video
פחות "קפיאות", פחות אפקט Ken Burns משעמם, תנועה אמיתית יותר, שמירה טובה יותר על העקביות מהפריים הראשון.

- יותר אפשרויות FPS
תמיכה ב-24 ו-48 FPS (בנוסף ל-25/30/50 הקודמים) – נותן יותר גמישות למי שרוצה look קולנועי (24) או חלק מאוד (48+).

- טקסט רינדור משופר מאוד
כתובות, לוגואים, טקסט על המסך יוצאים חדים ונקיים בהרבה – אחד השיפורים הכי מורגשים בפועל.

- שליטה מתקדמת יותר
תמיכה טובה יותר ב-Start Frame + End Frame (אתה מגדיר בדיוק איך הסצנה מתחילה ומסתיימת)
keyframes משופרים, consistency גבוהה יותר בין פריים לפריים.

- ביצועים כלליים
המהירות נשארה גבוהה מאוד (עדיין אחד המודלים הכי מהירים ב-4K), אבל האיכות עלתה משמעותית בלי לפגוע יותר מדי בזמן יצירה.
1
יודע שיש הרבה חבר׳ה פה שעובדים עם קלאוד קוד
מסתבר שבאנתרופיק לא שילמו את חשבון החשמל (אני צוחק כמובן )
אבל יש בעיות
אפשר להתעדכן באתר הסטטוס למי שרוצה לעקוב אחרי הסטטוס של קלאוד.
🔥1
לפעמים אני אומר wow
החבר׳ה ב base44 הרגו השיקו openclaw killer
)מצטרף כמובן למנוס שנרכשה על ידי מטא ודומים )

החבר׳ה בבייס 44 הציגו אופציה לagents במצב אלפא רק לפני שבוע. ניסיתי להרשם כדי לנסות ולספר איך זה

פחות משבוע אח״כ הם כבר משיקים מצב של superagent לפני כמה דקות שמאפשר להפעיל סוכנים שרצים קבוע ומגיבים לבד
מקושרים לשלל אפליקציות חיצוניות כולל אחרות עם mcp ובתוספת של אפשרות לרוץ על אפליקציות שנבנו בתוך base44

או בצורה שהם כתבו

A personal AI agent that runs tasks for you 24/7. It takes real actions on your behalf and lives inside WhatsApp, Telegram, Slack, or your browser.

https://base44.com/superagents
2
חברת nvidia שיחררה הערב מודל חדש בסדרת נומרטרון :Nemotron 3 Super

ביקשתי מgrok לסכם עליו אני רק אגיד בזריזות שעל פי הנתונים מאוד מרשים והכי נחמד שאפשר להשתמש בו בחינם

נוסיף שהוא גם נבנה בצורה מותאמת לסוכנים ובייחוד openclaw
הוא אפילו מנצח בביקורות שם במדד שלהם מהמודלים של קוד פתוח


ועכשיו : לדבר הגרוק 😀

המודל החדש של NVIDIA הוא Nemotron 3 Super – מודל פתוח (open-weights) מסוג hybrid Mamba-Transformer MoE עם 120 מיליארד פרמטרים בסך הכל (רק 12.7 מיליארד פעילים בכל token). הוא יצא היום (11 במרץ 2026) והוא חלק ממשפחת Nemotron 3 (יש גם Nano ו-Ultra).

### מה מיוחד בו? (הדגשים עיקריים)
זה לא סתם "מודל גדול יותר" – הוא מתוכנן מראש להיות הכי יעיל וחכם ל-agentic AI:
- Latent MoE – מפעיל פי 4 יותר "מומחים" (experts) בעלות inference זהה → יותר דיוק בלי עלות נוספת.
- Multi-token prediction – מנבא כמה tokens בבת אחת → דורש פחות זמן יצירה (generation time).
- Hybrid Mamba-Transformer – 4× שיפור בזיכרון ובחישוב (במיוחד ב-context ארוך).
- NVFP4 quantization – אופטימיזציה מלאה ל-GPUs של Blackwell (Blackwell-native).
- Native 1M-token context window – יכול "לבלוע" מיליון tokens בבת אחת (נתונים עצומים, קוד ארוך, שיחות ארוכות).

תוצאה: פי 5 throughput ו-**פי 2 דיוק** בהשוואה לגרסה הקודמת, תוך שהוא נשאר open-source מלא (weights + datasets + recipes).

### מה הוא מסוגל לעשות?
- Multi-agent workflows – מאות agents משתפים פעולה בו זמנית (תכנון, קריאת כלים, אימות, ביצוע).
- Coding agents – כותב, מתקן ומפתח קוד ברמה גבוהה (הכי טוב ב-PinchBench).
- Long-running autonomous agents – רץ שעות/ימים עם context ענק (1M tokens).
- Reasoning modes – 3 מצבים (off / low-effort / regular) – אפשר לבחור כמה "חשיבה" הוא משקיע.
- משימות מורכבות כמו אוטומציית IT, ניתוח נתונים ענק, סוכנים אישיים וכו'.

https://x.com/nvidiaaidev/status/2031774913544016179?s=46
אחד הטוויטים המוזרים
מי שיסביר לי מה זה יקבל חולצה ותקליט
(לפני כמה דקות )
🤣2
יש זוכה !!!
נתנאל שגילה לי
מסתבר שאפל מוציאים 163 אמוג׳ים חדשים - מתוכם 13 חדשים כמו למשל ביגפוט
והשאר - 150 שינויים בגוון של צבעים
ערב טוב
ימים עם המון הכרזות

בקצרה : OpenAI משיקים video api עכשיו אפשר סרטונים עד 20 שניות, מקבצים , פורמטים שונים

קבלו תקציר של מה שהם הכריזו באנגלית


We’re introducing new Video API capabilities, powered by Sora 2:
• Custom characters and objects
• 16:9 and 9:16 exports
• Clips up to 20 seconds
• Video continuation to extend scenes
• Batch jobs for video generation
With the new Video API capabilities, video generation becomes more efficient for studios, brands, and developers unlocking high-production content for campaign creative, storyboarding and UGC platforms.

Now available in the Video API to all developers.
https://developers.openai.com/api/reference/resources/videos/
גם לכם יש עכשיו אפשרות להשתמש בCOMPUTER של Perplixity?
האמת שאני חיכיתי לסופש כדי לכתוב על כל ה(לדעתי) מהפכות לא קטנות של פרפליסקיטי בימים האחרונים, ופתאום כשנכנסתי, ראיתי שבתוכנית הPRO הם מאפשרים עכשיו גם את COMOUTER שהיה עד עכשיו רק לתוכניות MA או אנטפריז זה מגניב

אז יש לכם PRO בפרפלקסיטי?
קיבלתם גם את היכולת הזו?
מה הUSE CASE שהכי מעניין אתכם לנסות?
עשיתם משהו?

אם כן, אני ממש אשמח לשמוע
(רציני לגמרי) שתפו אותי!!!
אפשר פה https://t.me/claudecodeisrael
אפשר גם בוואטסאפ

https://chat.whatsapp.com/LPhbVuMdaMn7ksRlEwVC2O?mode=gi_t
אז הפעלתי את ה VOICE MODE של אנתרופיק בקלאוד קוד. נחמד, לא תומך בעברית (כצפוי) לוחצים על הרווח, והוא מבין אנגלית לא רע. פועל גם אצלכם? פשוט תנסו /VOICE אם אתם רואים הודעה כשמו שאני עשיתי....
nVision Digital AI בינה מלאכותית, טכנולוגיה חידושים, vibe coding ומה שבינהם
חברת nvidia שיחררה הערב מודל חדש בסדרת נומרטרון :Nemotron 3 Super ביקשתי מgrok לסכם עליו אני רק אגיד בזריזות שעל פי הנתונים מאוד מרשים והכי נחמד שאפשר להשתמש בו בחינם נוסיף שהוא גם נבנה בצורה מותאמת לסוכנים ובייחוד openclaw הוא אפילו מנצח בביקורות שם…
אז אתמול סיפרתי לכם שNVIDIA שיחררה את המודל NVIDIA Nemotron 3 Super בחינם...
אם לא בא לכם להריץ אותו במחשב שלכם (כן, בסדר, אני אניח שהמחשב שלכם לא באמת מסוגל לתמוך בו) ואין לכם מנוי לPERPLIXITY PRO שם אפשר למצוא אותו גם כן, ולא הוצאתם מפתח API KEY של NVIDIA בתור מפתחים,
אז עכשיו אפשר להשתמש בו גם בKILO CODE (לבנתיים) בחינם, דוגמא מהרשימה....
(של מודלים חינמים בKILO CODE)

אגב, באמת אחלה מודל.
שתי עובדות עולות מהטוויט של מר לוגן :
1. אירוע google io מגיע עוד חודשיים וטיפה. בפעם האחרונה הם השיקו עשרות תכונות ומוצרים ששברו את השוק בהמון מקומות. תתכוננו.

הם עומדים להשיק אפליקציה לאנדרואיד של vibe coding (עבור google ai studio עוד לפני ….) אגב הוא דיבר על השקה של זה לפני כחצי שנה אבל עכשיו יש תאריך (סוג של )

על הדרך אם אתם מחפשים עבודה הם שוכרים 😃
2