
Prompt Injection: למה ארגונים צריכים להתייחס לדפדפני AI כסיכון קבוע ולא כתקלה זמנית
- Kuzmanko Team

- לפני 5 ימים
- זמן קריאה 4 דקות
ארגונים מאמצים דפדפני AI וסוכנים שמבצעים משימות מקצה לקצה, אבל במקביל נפתח וקטור תקיפה שהופך לבעיה מבנית. מדובר בהזרקת הנחיות לתוך תוכן שהמודל קורא, באופן שגורם לו לעקוף כוונות משתמש, מדיניות אבטחה או נהלים תפעוליים. חברת OpenAI העריכה כי כלים מסוג דפדפן AI עשויים להישאר פגיעים לתקיפות מהסוג הזה לאורך זמן, גם עם שכבות הגנה מתקדמות. גישה ניהולית נכונה מתחילה בהבנה שהפתרון אינו רק טכני, אלא תפעולי, חוזי ופיננסי.
הזרקת פרומפט (Prompt Injection) כמכפיל סיכון בדפדפני AI
תקיפת הזרקת הנחיות מנצלת תכונה בסיסית של מודלי שפה, היכולת לייחס סמכות להנחיות טקסטואליות שמופיעות בתוך מסמכים, אתרים או הודעות. שחקן עוין יכול לשתול טקסט שמורה למודל לחשוף מידע, לבצע פעולה לא מורשית או לשנות תהליך עבודה, תוך שהמודל חושב שמדובר בהוראות לגיטימיות. שיטה זו מסוכנת במיוחד כאשר לסוכן יש הרשאות לגשת לכלים ארגוניים כמו דואר, מסמכי ענן, CRM, מערכות כספים או חיבורי API.
חברת OpenAI ציינה בהקשר של דפדפן Atlas כי אף שמבוצעות הקשחות ושיטות אימון כמו חיזוק מבוסס משוב אנושי, עדיין קיימת פגיעות עקרונית כאשר מודל נדרש לפרש תוכן לא מהימן ולבצע הוראות. גישה זו מתיישבת עם עמדות אבטחה ציבוריות שמדגישות כי אין פתרון קסם, אלא ניהול סיכונים שכבותי. תמונת המצב הופכת מורכבת יותר כאשר ארגונים מתמודדים גם עם Shadow AI, כלומר שימוש עצמאי של עובדים בכלים שאינם מאושרים, באופן שמרחיב חשיפה ללא בקרה.
השלכות עסקיות ומדדי נזק שצריך למדוד מראש
מנהלים נוטים למסגר את האירוע כבעיה אבטחתית, אבל בדפדפני AI מדובר גם בסיכון תפעולי וסיכון ציות. תרחיש שכיח הוא זליגת נתונים דרך פעולות אוטומטיות, למשל סוכן שמעתיק מידע ממסמך פנימי אל שיחה חיצונית, או סוכן שמבצע פעולה במערכת בעקבות הוראה שמוטמעת בעמוד אינטרנט. תרחיש אחר הוא פגיעה בשלמות נתונים, כלומר יצירת שינוי שקט בנתוני לקוח, הסכמי תמחור או הזמנות, באופן שקשה לגלות בדיעבד.
מדדי הנזק שהיינו ממליצים להגדיר מראש כוללים זמן השבתה תהליכי, שעות אנליסטים לחקירה ותיקון, עלות תגובה משפטית ועלות דיווח לרגולטור, לצד עלות הזדמנות של עצירת אוטומציה. הערכה שמרנית בארגון בינוני יכולה לתרגם אירוע יחיד לעלות ישירה של עשרות עד מאות אלפי שקלים, בעיקר כאשר מעורבים נתוני לקוחות או מערכות פיננסיות. מדידה מראש מאפשרת לבנות הצדקת השקעה ברורה, משום שמדובר בהגנה על תהליכים שמייצרים ערך, ולא רק בהפחתת איומים תיאורטיים.
תוכנית פעולה ישימה לניהול הסיכון
גישה אפקטיבית מתחילה בסיווג שימושים לפי רמת הרשאות ורמת חשיפה לתוכן חיצוני. סיווג פשוט כולל שלוש קטגוריות: סוכנים ללא כלים וללא גלישה, סוכנים עם כלים פנימיים בלבד, וסוכנים עם גלישה ותוכן חיצוני. סיווג זה מאפשר לקבוע היכן מותרת אוטומציה מלאה, היכן נדרשת בקרה אנושית, והיכן נכון לאסור שילוב כלים עד להקשחה.
שכבת ההפעלה הקריטית היא ניהול הרשאות לפי עקרון המינימום, עם הפרדה ברורה בין קריאה לכתיבה. ארגון שמאפשר לסוכן לכתוב ל CRM או לשלוח מיילים בשם עובד חייב לדרוש מנגנון אישור מפורש לפעולות בעלות סיכון, למשל שינוי פרטי תשלום, שינוי כתובת אספקה או יצירת ספק חדש. מנגנון זה אינו מעכב ROI כאשר מיישמים אותו רק על פעולות סיכון גבוה, בעוד שפעולות סיכון נמוך נשארות אוטומטיות.
שכבת ההנדסה צריכה להתבסס על הפרדה בין הוראות מערכת, הוראות משתמש ותוכן לא מהימן, עם כללים קשיחים לאי ציות להנחיות שמגיעות מהתוכן. בפועל נדרשים סורקי תוכן והקשר שמזהים דפוסים אופייניים להזרקת הנחיות, לצד סנדבוקס שמגביל יכולות כאשר מקורות מידע אינם מהימנים. פתרון יעיל נוסף הוא מעבר לארכיטקטורת Retrieval שמחזירה מקטעים מסוננים מראש במקום לתת לסוכן לקרוא עמודים שלמים ללא סינון.
שכבת הבקרה חייבת לכלול יומני פעולה עשירים, תיעוד מקור ההחלטה, ותצפית על חריגות. מערכת שמנטרת שינויי הרשאות, קפיצות בלתי שגרתיות בנפח פעולות, או ניסיונות גישה לנתונים שלא קשורים למשימה, תזהה אירוע מוקדם יותר ותצמצם נזק. מהניסיון שלנו בשטח, ארגונים שמטמיעים תצפית ותהליכי תגובה ייעודיים לסוכנים מקצרים משמעותית את זמן הגילוי, ובכך מפחיתים עלויות חקירה ושחזור.
מודל ROI פרקטי להגנות מול מהירות אוטומציה
כדי להצדיק השקעה, מומלץ לחשב תוחלת נזק שנתית מול עלות הקשחה. תוחלת הנזק יכולה להיבנות ככפולה של הסתברות אירוע, עלות אירוע ממוצעת ומכפיל השפעה רגולטורית או תדמיתית. עלות ההקשחה כוללת עבודה הנדסית, רישוי כלי אבטחה, זמן בדיקות, והטמעה תהליכית. ארגון שמבצע אוטומציה בתהליכי מכירות, שירות או כספים בדרך כלל יגלה שעלות הגנה בסיסית היא חלק קטן מהחיסכון השנתי בשעות עבודה, במיוחד כאשר משמרים אוטומציה מלאה בפעולות סיכון נמוך.
גישה מאוזנת היא להשקיע קודם בהגנות שמקטינות נזק בהסתברות גבוהה, כמו מינימום הרשאות, אישור לפעולות קריטיות ותצפית. לאחר מכן נכון להרחיב להגנות יקרות יותר כמו סנדבוקסים מתוחכמים או מסנני תוכן מתקדמים, בעיקר כאשר הסוכן פועל מול מקורות חיצוניים או מול תהליכים כספיים. אסטרטגיה זו שומרת על קצב אימוץ גבוה, תוך הפחתת סיכון במקומות שבהם האירוע באמת יקר.
סיכום וצעדים מומלצים לרבעון הקרוב
תובנת המפתח היא שהזרקת הנחיות אינה באג שייעלם, אלא תכונה של מערכות שמפרשות טקסט לא מהימן ומחוברות לכלים. הנהלה שמציבה גבולות הרשאה, מגדירה נקודות אישור, ומטמיעה תצפית ותהליכי תגובה, יכולה להמשיך ליהנות מהאצה תפעולית בלי לחשוף את הארגון לסיכון לא פרופורציונלי. צוותים שמטפלים גם ב Shadow AI באמצעות מדיניות ברורה, חלופות מאושרות והדרכה, מצמצמים את השטח האפור שבו הסיכון צומח.
פעולה מומלצת היא למפות בתוך שבועיים את כל נקודות השילוב של סוכנים וכלי AI עם מערכות קריטיות, ולאחר מכן להחיל סיווג שימושים, עקרון מינימום הרשאות ומנגנון אישור לפעולות קריטיות. פעולה מומלצת נוספת היא להריץ תרגיל אדום ממוקד הזרקת הנחיות מול שלושה תהליכים בעלי ערך גבוה, כדי לקבל תמונת פערים אמיתית ולתעדף השקעה. הנהלה שתנהל את התחום כתוכנית סיכונים עם יעדים ומדדים, תצליח להגדיל אימוץ ולהקטין אירועים, במקום להיתקע בין חדשנות לחשש.



