top of page
אי ודאות בסוכני LLM: איך להפחית טעויות ועלויות?
ארגונים רבים עוברים מצאט בודד לסוכני LLM שמבצעים תהליכים שלמים. מנהלי מערכות מידע ומנהלי מוצר מגלים מהר שאיכות תשובה בודדת לא מספיקה כדי לעמוד ביעדי אמינות. המציאות החדשה דורשת ניהול אי ודאות לאורך רצף החלטות, כלים ופעולות. מחקר חדש מציע שינוי פרדיגמה במדידת אי ודאות במודלים שפתיים. מאמר arXiv בשם Towards Reducible Uncertainty Modeling for Reliable Large Language Model Agents מציג מסגרת שמותאמת לסוכנים אינטראקטיביים. צוות המחברים, ובהם דאון סונג ושרון לי, טוען שמדידה סטטית בס

Kuzmanko Team
10 במרץזמן קריאה 4 דקות


איך לשפר מחזור פיתוח אלגוריתמים בארגון עם סוכן AI שמפחית ניסויים יקרים
ארגונים שמפתחים מודלים, סימולציות או תשתיות ביצועים נתקלים באותה בעיה שוב ושוב. הזמן והעלות של כל ניסוי בודד גדלים מהר יותר מקצב הלמידה של הצוות. התוצאה היא תהליך שיפור איטי שמבזבז שעות מומחים, שעות מעבדה ושעות GPU. מחקר חדש מציג את Aster, סוכן AI לשיפור מחזור פיתוח, גילוי ושיפור תוכניות באופן אוטונומי, שמנסה להקטין דרמטית את מספר האיטרציות עד לשיפור משמעותי. הגישה הזו ממירה את השאלה הארגונית ממה האלגוריתם הנכון, לשאלה איך מייצרים לולאת שיפור יעילה סביב מדד הצלחה ברור. המשמעו

Kuzmanko Team
5 במרץזמן קריאה 3 דקות


בינה מלאכותית on-prem: האם מודלים קטנים במיוחד הם הדבר הבא?
ארגונים רבים נכנסים לשלב שבו ניסויים בענן כבר לא מספיקים אפילו עם פתרונות כמו Bedrock של AWS או Azure AI, בסוף הצרכים כמו שליטה מלאה, עלויות טווח ארוך, complaince, שיהוי ושליטה בתשתיות מכריעות לטובת פתרונות On Premis בחלק מהמקרים. מנהלים מחפשים יכולת לפרוס מודלים בתוך הדאטה סנטר הארגוני, לצמצם זליגת מידע, לקבע עלויות, ולהתאים מודלים לשפה, לז׳רגון ולתהליכים פנימיים. חברת Cohere השיקה את Tiny Aya, משפחת מודלים קומפקטית ורב לשונית שמכוונת בדיוק לנקודה הזאת, כלומר להביא יכולות שי

Kuzmanko Team
27 בפבר׳זמן קריאה 4 דקות


סוכני AI בארגונים: איך להקטין שגיאות ולשפר אמינות בזרימת עבודה מורכבת
חוקרים מ MIT חקרו וגילו שמרבית הכשלים של סוכני AI בארגונים אינם נובעים מחוסר ידע של המודל, אלא מהתנהגות מערכתית לא יציבה לאורך משימות מרובות שלבים. ארגונים בונים סוכנים שמבצעים חיפוש מידע, מפעילים כלים, כותבים קוד, ומייצרים החלטות, אבל בפועל כל שלב מוסיף הסתברות לשגיאה, ויוצר שרשרת שמגדילה עלויות, זמן טיפול, וסיכון רגולטורי. חוקרים מציעים מסגרת עבודה שמארגנת את פעולת הסוכן סביב פירוק משימות מדוד, אימות ביניים, וניהול אי ודאות לאורך התהליך. גישה כזו פותרת בעיה מוכרת של סוכנים

Kuzmanko Team
24 בפבר׳זמן קריאה 3 דקות


גישה מהימנה לסייבר: איך OpenAI מנסה להטות את המאזניים לטובת ההגנה הארגונית
חברת OpenAI פרסמה השבוע מהלך כפול שמכוון ישירות לליבת ההגנה הארגונית: מסגרת גישה מהימנה לכלי סייבר מתקדמים סביב מודל GPT 5.3 Codex, לצד מענק API בהיקף 10 מיליון דולר לצוותים שמאתרים ומתקנים פגיעויות בקוד פתוח ובתשתיות קריטיות. המטרה המוצהרת היא להגדיל את קיבולת ההגנה בלי להפוך את אותם כלים למכפיל כוח עבור תוקפים. בפועל מדובר בניסוי תעשייתי חשוב: שילוב בין יכולות אוטונומיות ארוכות טווח לבין שכבת זהות, ניטור ומדיניות שמנסה לאפשר שימוש לגיטימי ולחסום שימוש מזיק. גישה מהימנה לסי

Kuzmanko Team
6 בפבר׳זמן קריאה 4 דקות


חלון ההקשר והשפעתו על יישום סוכני AI) AI Agents) ב- 2026?
איך השינוי הדרמטי מ- 8 אלף טוקנים ב- 2023 ועד ל 10 מיליון טוקנים ב 2026 משפיע על יישום סוכני AI? מודלי שפה עברו בשלוש השנים האחרונות קפיצה שמרגישים בה בכל פרויקט ארגוני, מחלונות הקשר (Context Windows) של אלפי טוקנים בודדים אל מציאות שבה מיליוני טוקנים הם יעד תכנוני מעשי. מנהלים וצוותי הנדסה חווים את השינוי לא רק כעוד שיפור ביצועים, אלא כעדכון יסודי של כללי המשחק בבניית תהליכים מורכבים. השינוי בולט בפרט סביב אייג'נטים שמבצעים תכנון, שימוש בכלים ושרשראות החלטה ארוכות. במאמר זה

Jonathan Kuzmanko
4 בפבר׳זמן קריאה 4 דקות


מערכות RAG בארגונים: הארכיטקטורה שהפכה לתשתית קריטית
מערכות RAG עברו בשנים האחרונות מהדגמות מרשימות לתשתית שמחזיקה מוצרי בינה מלאכותית בייצור, במיוחד בארגונים שמחויבים לדיוק, לציטוט מקורות ולשינויי ידע תכופים. ארכיטקטורת Retrieval-Augmented Generation משלבת חיפוש במאגר ידע חיצוני עם מודל שפה גנרטיבי, וכך מפחיתה הסתמכות על ידע פרמטרי ומקטינה הזיות. השאלה כבר איננה האם להשתמש בפתרון כזה, אלא איך לבנות אותו כך שיעבוד תחת עומס, תחת רגולציה ותחת דרישות אבטחה, ובמקביל ישמור על יחס עלות-תועלת. מערכות RAG בארגונים: מה זה, ומה השתנה ב-2

Jonathan Kuzmanko
2 בפבר׳זמן קריאה 5 דקות


אמון מכויל בינה מלאכותית: איך ארגונים מתמודדים עם הזיות של מודלי שפה
הזיות של מודלי שפה הן לא תקלה נדירה, אלא רעש תפעולי שחוזר בכל ארגון שמאמץ בינה מלאכותית גנרטיבית. הבעיה מופיעה בוודאי בשימושי צללים של בינה מלאכותית, כאשר עובדים מעתיקים מידע לכלים לא מורשים ומקבלים תשובות שנשמעות סמכותיות, אבל גם במערכות מאושרות שבהן המודל פועל על מידע חלקי, על ניסוח מעורפל או על הקשר עסקי שלא הוגדר היטב. שאלה עסקית מרכזית עולה שוב ושוב: כיצד עובדים מתמודדים בפועל עם הזיות, ומה אפשר ללמוד מההתנהגות שלהם כדי לשפר תהליכי הטמעה, לצמצם סיכונים ולהגדיל תשואה מפרו

Kuzmanko Team
9 בינו׳זמן קריאה 3 דקות


ה- PaTH Attention במודלי שפה גדולים: פריצת דרך בהבנת טקסטים ארוכים והשלכות לארגונים
חוקרי אוניברסיטת MIT ומעבדת MIT IBM Watson AI Lab מציגים מנגנון מיקום חדש בשם PaTH Attention, שמטרתו לשפר את יכולת ההבנה וההיגיון של מודלי שפה גדולים בטקסטים ארוכים. השיפור מכוון במיוחד למעקב אחרי שינויי מצב והקשרים לוגיים לאורך מסמכים גדולים, תוך יעילות חישובית שמאפשרת הרצה מעשית על GPU. המשמעות הארגונית ברורה, יכולות LLM הופכות מדיבור כללי על מסמכים ליכולת עבודה אמינה יותר עם תהליכים עתירי מסמכים, שינויי גרסאות ותיעוד מתגלגל. מודלי שפה גדולים ו PaTH Attention: מה השתנה בקיד

Kuzmanko Team
6 בינו׳זמן קריאה 4 דקות


הזרקת פרומפט (Prompt Injection): למה ארגונים צריכים להתייחס לדפדפני AI כסיכון קבוע ולא כתקלה זמנית
ארגונים מאמצים דפדפני AI וסוכנים שמבצעים משימות מקצה לקצה, אבל במקביל נפתח וקטור תקיפה שהופך לבעיה מבנית. מדובר בהזרקת הנחיות לתוך תוכן שהמודל קורא, באופן שגורם לו לעקוף כוונות משתמש, מדיניות אבטחה או נהלים תפעוליים. חברת OpenAI העריכה כי כלים מסוג דפדפן AI עשויים להישאר פגיעים לתקיפות מהסוג הזה לאורך זמן, גם עם שכבות הגנה מתקדמות. גישה ניהולית נכונה מתחילה בהבנה שהפתרון אינו רק טכני, אלא תפעולי, חוזי ופיננסי. הזרקת פרומפט (Prompt Injection) כמכפיל סיכון בדפדפני AI תקיפת הזרק

Kuzmanko Team
5 בינו׳זמן קריאה 4 דקות


אחזור ידע מודע-נימוק: איך MCTS משדרג עוזרי ידע ארגוניים ומצמצם טעויות במענה
מחקר חדש מציע תובנה פרקטית למנהלים שמפעילים עוזרי ידע ארגוניים: הבעיה המרכזית אינה רק איכות המודל, אלא איכות תהליך החיפוש שמזין אותו. המחקר מציג שיטה שבה תהליך השליפה ממאגרי ידע הופך לחלק אינטגרלי מתהליך החשיבה של מודל השפה, ולא שלב מקדים טכני. התוצאה היא שיפור דיוק, הגדלת מגוון מקורות והפקת נימוק רב-שלבי, תוך הפחתת שליפות מיותרות שמובילות לתשובות משכנעות אך שגויות. אחזור ידע מודע-נימוק: מה המחקר מגלה ולמה זה חשוב לארגונים עתירי מסמכים המחקר Reasoning in Action: MCTS-Driven K

Kuzmanko Team
5 בינו׳זמן קריאה 3 דקות


מודלי אודיו: למה OpenAI ואחרות מהמרות על קול, ואיך ארגונים מטמיעים את זה נכון בעברית
הידיעה על איחוד צוותי מוצר, מחקר ופיתוח ב-OpenAI לקראת השקת מכשיר אישי מבוסס קול בתוך כשנה היא לא רק עוד עדכון מוצר. מדובר באיתות אסטרטגי: הממשק הקולי הופך ממוצר נישה לשכבת אינטראקציה מרכזית, בעיקר בסביבות שבהן ידיים ועיניים עסוקות, כמו רכב, מוקדי שירות, שטח לוגיסטי ותפעול. גם Meta, Google ו-Tesla דוחפות חזק לשם, עם דוגמאות כמו מיקרופונים מרובים במשקפיים חכמים, סיכומי חיפוש קוליים ועוזרים שיחתיים ברכב. במקביל להייפ, ארגונים בישראל נתקלים במציאות מורכבת יותר: תמיכה בעברית היא

Kuzmanko Team
5 בינו׳זמן קריאה 3 דקות


bottom of page
