TriRoars Logo
TriRoars Logo
חזרה לכל המדריכים
שימוש בטוח ב-AI בארגון
אבטחה ומדיניות

שימוש בטוח ב-AI בארגון

עידו שגב

עידו שגב

מומחה AI

10 דק׳ קריאה
מרץ 2026

מבוא — הסיכון הבלתי נראה

בשנת 2026 כלי AI הפכו לחלק בלתי נפרד מהשגרה הארגונית. עובדים משתמשים ב-ChatGPT, Claude, Gemini וכלים נוספים כדי לנסח מיילים, לנתח נתונים, לכתוב קוד וליצור תוכן — לעיתים מבלי שהארגון בכלל מודע לכך. התופעה הזו, המכונה "Shadow AI", היא אחד מאתגרי אבטחת המידע המשמעותיים ביותר של העידן הנוכחי.

הבעיה אינה בכלים עצמם — אלא בשימוש הלא מבוקר בהם. כשעובד מדביק רשימת לקוחות לתוך צ'אט AI, כשמפתח מעלה קוד פרופריטרי לכלי עזר, או כשמנהל משתף נתונים פיננסיים כדי לקבל ניתוח — המידע הארגוני נחשף לצד שלישי, לעיתים ללא כל הצפנה, בקרת גישה או תיעוד.

נתון מדאיג

לפי סקר של Gartner מ-2025, למעלה מ-55% מהעובדים בארגונים גדולים משתמשים בכלי AI שלא אושרו רשמית על ידי מחלקת ה-IT. ב-2026, עם ריבוי הכלים וקלות הגישה, המספר רק הולך וגדל.

המדריך הזה נועד לספק לכם מסגרת עבודה מעשית — מהבנת הסיכונים, דרך בניית מדיניות, בחירת כלים מאושרים, הכשרת עובדים, ועד ניטור ואכיפה שוטפים. המטרה: לאפשר לארגון ליהנות מהיתרונות של AI בלי לשלם את המחיר של דליפת מידע, הפרת רגולציה או פגיעה במוניטין.


סיכוני פרטיות מידע

כשעובד מזין מידע לכלי AI חיצוני, הוא למעשה מעביר נתונים לשרתים של חברה אחרת. חלק מהספקים משתמשים בנתונים אלה לאימון מודלים עתידיים, חלקם שומרים לוגים לתקופה מסוימת, ומעטים מציעים מחיקה מלאה. ההשלכות עלולות להיות חמורות.

1

דליפת נתונים אישיים (PII)

מידע אישי מזהה כמו שמות, מספרי תעודת זהות, כתובות מייל ומספרי טלפון של לקוחות שמוזנים לכלי AI עלולים להישמר בשרתי הספק. זו הפרה ישירה של חוקי הגנת פרטיות כמו GDPR, חוק הגנת הפרטיות הישראלי, ותקנות הגנת מידע אישי שעודכנו ב-2025.
2

חשיפת קניין רוחני

קוד מקור, אלגוריתמים ייחודיים, מסמכי פטנטים ותוכניות מוצר שנכנסים למודל AI עלולים להפוך לחלק מהידע הכללי של המודל — ובכך לאבד את ייחודם התחרותי. מספיקה טעות אחת כדי לחשוף נכס שנבנה במשך שנים.
3

הפרת הסכמי סודיות (NDA)

כשמידע שכפוף להסכמי סודיות עם לקוחות או שותפים מוזן לכלי AI חיצוני, הארגון מפר את ההסכם — גם אם לא הייתה כוונת זדון. מספר תביעות בנושא זה עלה באופן משמעותי ב-2025-2026.
4

אי-ציות רגולטורי

ארגונים הכפופים לרגולציה פיננסית (כמו רגולציית בנק ישראל), בריאותית (HIPAA) או ביטחונית נדרשים לשליטה מלאה על זרימת המידע. שימוש בכלי AI לא מפוקח מהווה הפרה רגולטורית שעלולה לגרור קנסות כבדים ועיצומים.

מה קורה למידע שמזינים ל-AI?

כל ספק מתנהל אחרת. חלקם (כמו OpenAI ב-ChatGPT Team/Enterprise) מתחייבים לא לאמן על הנתונים שלכם. חלקם שומרים לוגים ל-30 יום. ובחלק מהכלים החינמיים — הנתונים משמשים לשיפור המודל. חובה לקרוא את תנאי השימוש ולהבין בדיוק מה קורה עם המידע שלכם.

בניית מדיניות שימוש ב-AI

מדיניות שימוש ב-AI (AI Usage Policy) היא לא מסמך בירוקרטי — זה כלי ניהולי קריטי שמגדיר את גבולות המותר והאסור, מפחית סיכונים, ומאפשר לעובדים להשתמש בכלי AI בביטחון. מדיניות טובה היא קצרה, ברורה, וכוללת דוגמאות מעשיות.

שלבים לבניית מדיניות

1

מיפוי שימושים קיימים

לפני שכותבים מדיניות, הבינו מה קורה בשטח. ערכו סקר אנונימי לעובדים: באילו כלי AI הם משתמשים? לאילו מטרות? איזה מידע הם מזינים? התשובות יפתיעו אתכם.

2

הגדרת רמות סיווג מידע

סווגו את המידע הארגוני לרמות: ציבורי, פנימי, חסוי, סודי ביותר. לכל רמה — כללים שונים לגבי שימוש בכלי AI. למשל: מידע ציבורי מותר בכל כלי, מידע חסוי — רק בכלי Enterprise מאושר.

3

קביעת כלים מאושרים

הגדירו רשימה סגורה של כלי AI שעברו בדיקת אבטחה ואושרו לשימוש. כללו פרטים על גרסה (חינמית/ארגונית), הגדרות נדרשות, ומי אחראי על הרישיון.

4

כתיבת הנחיות ברורות עם דוגמאות

אל תסתפקו ב'אל תשתפו מידע רגיש'. תנו דוגמאות קונקרטיות: 'מותר — לבקש מ-AI לנסח מייל כללי. אסור — להדביק רשימת לקוחות עם פרטי התקשרות.' ככל שהדוגמאות מוחשיות יותר, ההנחיות יעילות יותר.

5

אישור הנהלה והפצה

המדיניות חייבת לקבל תמיכה ברורה מההנהלה הבכירה. הפיצו אותה לכלל העובדים, ערכו מפגש הסברה, ובקשו חתימה דיגיטלית על קריאה והבנה.

6

עדכון תקופתי

עולם ה-AI משתנה כל כמה חודשים. קבעו סקירה רבעונית של המדיניות — עדכנו כלים, הוסיפו תרחישים חדשים, וודאו שההנחיות רלוונטיות.

מה חייבת לכלול כל מדיניות

  • הגדרה ברורה של מהו 'כלי AI' (כולל תוספי דפדפן, עוזרי כתיבה, כלי קוד)
  • רשימת כלים מאושרים ואסורים עם שם וגרסה
  • סיווג סוגי מידע ומה מותר להזין לכל רמת סיווג
  • נהלים למקרה של דליפת מידע בטעות (Incident Response)
  • עונשים והשלכות על הפרת המדיניות
  • פרטי איש קשר לשאלות ודיווח על אירועים
  • תאריך עדכון אחרון ומועד הסקירה הבא

דוגמה לפרומפט

דוגמה לסעיף במדיניות AI ארגונית: סעיף 4.2 — מידע אסור בהזנה לכלי AI חיצוניים: א. מידע אישי מזהה של לקוחות (שמות, ת.ז., טלפונים, כתובות) ב. נתונים פיננסיים לפני פרסום (דוחות רבעוניים, תחזיות הכנסות) ג. קוד מקור של מערכות ליבה ד. תכתובות משפטיות ומסמכים הכפופים לחיסיון עו"ד-לקוח ה. מידע ביטחוני או מסווג ו. כל מידע הכפוף להסכם NDA עם צד שלישי הפרה של סעיף זה תטופל בהתאם לנוהל משמעת 7.1.

סוגי מידע רגיש שיש להגן עליהם

לא כל המידע הארגוני שווה מבחינת רגישות. הבנת סוגי המידע ורמת הסיכון שלהם היא הבסיס לכל מדיניות אבטחה. להלן ארבע הקטגוריות המרכזיות שכל ארגון צריך להגן עליהן.

מידע לקוחות ומשתמשים

נתונים אישיים, היסטוריית רכישות, העדפות, פניות שירות, מידע רפואי או פיננסי. כפוף לחוקי פרטיות מחמירים ולציפיות הלקוחות לשמירה על פרטיותם.

מידע פיננסי ועסקי

דוחות כספיים טרם פרסום, תחזיות, תמחור, עלויות ספקים, תנאי עסקאות. חשיפת מידע זה עלולה לפגוע ביתרון התחרותי ולהוות הפרה של דיני ניירות ערך.

קניין רוחני (IP)

קוד מקור, אלגוריתמים, פטנטים בתהליך, עיצובים, שיטות ייצור, סודות מסחריים. אלה הנכסים שמבדלים את הארגון — ודליפתם עלולה לחסל יתרון תחרותי.

מידע אסטרטגי ותפעולי

תוכניות עסקיות, מיזוגים ורכישות, כניסה לשווקים חדשים, פיטורים מתוכננים, שינויי מבנה ארגוני. חשיפה עלולה להשפיע על שווי החברה ועל מורל העובדים.

טיפ מעשי — סימון מידע

הטמיעו מערכת סימון (tagging) על מסמכים ארגוניים: ציבורי, פנימי, חסוי, סודי. כשעובד רואה סימון "חסוי" על מסמך, הוא יודע אינסטינקטיבית שאסור להדביק את תוכנו בכלי AI חיצוני. שיטה פשוטה — אבל יעילה מאוד.

כלים מאושרים והנחיות שימוש

לא כל כלי AI נולדו שווים מבחינת אבטחה. ההבדל בין גרסה חינמית לגרסה ארגונית הוא לא רק בפיצ'רים — אלא בשליטה על הנתונים, תנאי הפרטיות, ותשתיות האבטחה. כשבוחרים כלי AI לשימוש ארגוני, יש לבדוק מספר פרמטרים קריטיים.

מה לבדוק לפני אישור כלי AI

מדיניות אימון נתונים

האם הספק משתמש בנתונים שמוזנים לאימון מודלים? בגרסאות Enterprise רוב הספקים מתחייבים שלא. בגרסאות חינמיות — לרוב הנתונים כן משמשים לאימון.

הצפנה (Encryption)

הצפנה בתעבורה (TLS 1.3) היא מינימום. בדקו גם הצפנת מידע בשרת (at-rest encryption) ואם הספק תומך ב-BYOK — ניהול מפתחות הצפנה עצמאי.

SSO ובקרת גישה

חיבור למערכת הזדהות ארגונית (SSO/SAML) מאפשר ניהול הרשאות מרכזי, כיבוי גישה מיידי לעובד שעוזב, ושליטה על מי יכול לגשת לאיזה כלי.

לוגים ותיעוד (Audit Logs)

היכולת לראות מי השתמש בכלי, מתי, ומה הוזן — קריטית לניטור ולחקירת אירועים. בדקו אם הלוגים ניתנים לייצוא ולמשך כמה זמן הם נשמרים.

תאימות רגולטורית

בדקו אם לספק יש תעודות SOC 2 Type II, ISO 27001, GDPR compliance. לארגונים בישראל — בדקו גם עמידה בדרישות הרשות להגנת הפרטיות.

מיקום אחסון הנתונים

היכן ממוקמים השרתים? לארגונים מסוימים יש דרישה לאחסון באירופה או בישראל. ודאו שהספק מאפשר בחירת אזור אחסון (data residency).

גרסה חינמית מול גרסה ארגונית — ההבדלים הקריטיים

ChatGPT Free / Plus

נתונים עלולים לשמש לאימון. אין SSO, אין לוגים מרכזיים, אין בקרת גישה. לא מתאים לשימוש עם מידע ארגוני רגיש בשום מצב.

ChatGPT Enterprise / Team

התחייבות לאי-אימון על הנתונים, SSO/SAML, Admin console, Audit logs, הצפנה at-rest, SOC 2 compliance. מתאים לשימוש ארגוני מבוקר.

Claude Free / Pro

מדיניות ברורה של Anthropic לגבי שימוש בנתונים. גרסה אישית — לא לשימוש ארגוני עם מידע רגיש. אין תמיכה בניהול צוותי.

Claude for Enterprise / API

Zero data retention אופציונלי, SSO, Audit logs, תאימות SOC 2 ו-HIPAA. שליטה מלאה על הנתונים דרך API עם הגדרות retention מותאמות.

כלל זהב

גרסה חינמית של כלי AI = גרסה אישית. אף עובד לא צריך להשתמש בגרסה חינמית או אישית לצרכי עבודה. אם הארגון רוצה להשתמש בכלי AI — הוא חייב לרכוש גרסה ארגונית עם ההגנות המתאימות. זה לא מקום לחסוך.

הכשרת עובדים לשימוש בטוח

מדיניות כתובה לבדה לא מספיקה. עובדים צריכים להבין למה הכללים קיימים, איך ליישם אותם בפועל, ומה לעשות כשהם לא בטוחים. הכשרה טובה הופכת את העובדים מחוליה חלשה בשרשרת האבטחה — לקו ההגנה הראשון.

מבנה תוכנית הכשרה מומלצת

1

מפגש הכרות ראשוני (שעה)

הצגת המדיניות, הסברת הסיכונים עם דוגמאות אמיתיות מעולם העסקים (כולל מקרים של דליפות מידע דרך AI), הדגמת כלים מאושרים, והסבר על נוהל דיווח.

2

סדנה מעשית (שעתיים)

תרגול שימוש בטוח בכלי AI מאושרים. העובדים מקבלים תרחישים אמיתיים ומתרגלים: איך לנסח שאלה בלי לחשוף מידע רגיש, איך לאנונימיזציה של נתונים לפני הזנה, מתי לפנות לממונה.

3

מבחן קצר ואישור

שאלון קצר (10 שאלות) שמוודא הבנה של העקרונות המרכזיים. עובד שעובר — מקבל אישור גישה לכלי AI ארגוניים. עובד שלא — עובר הכשרה חוזרת.

4

ריענון רבעוני (30 דקות)

עדכון על כלים חדשים, תרחישים שעלו מהשטח, שינויים במדיניות, ושיתוף שיטות עבודה מומלצות שעובדים גילו. שומר את הנושא בתודעה.

נושאים חובה בכל הכשרה

  • מה מותר ומה אסור להזין לכלי AI — עם דוגמאות קונקרטיות מתוך הארגון
  • איך לזהות מידע רגיש שעלול 'להתחבא' בתוך בקשה תמימה
  • טכניקות אנונימיזציה: החלפת שמות אמיתיים בשמות בדויים, הסרת מזהים ייחודיים
  • הנוהל במקרה של טעות — מה לעשות אם הזנתם מידע רגיש בטעות
  • ההבדל בין כלי AI מאושר לכלי אישי — ולמה זה חשוב
  • זיהוי Phishing ומתקפות הנדסה חברתית שמשתמשות ב-AI
  • אחריות אישית — כל עובד אחראי על המידע שהוא מזין

דוגמה לפרומפט

דוגמה: איך לשנות שאילתה כדי שלא תכיל מידע רגיש במקום: "נתח את רשימת הלקוחות הבאה: יוסי כהן 054-1234567, מירה לוי 052-9876543..." כתבו: "נתח רשימת לקוחות לדוגמה: לקוח א' (טלפון: XXX), לקוח ב' (טלפון: XXX). הנתונים: לקוח א' רכש 3 פעמים בחודש האחרון, לקוח ב' לא רכש 6 חודשים. אילו דפוסים אתה מזהה?" העיקרון: שמרו על מבנה הבעיה, הסירו את הנתונים המזהים.

השקעה שמחזירה את עצמה

ארגונים שמשקיעים בהכשרת עובדים לשימוש בטוח ב-AI מדווחים על ירידה של עד 80% באירועי דליפת מידע דרך כלי AI, לצד עלייה בפריון — כי עובדים שמרגישים בטוחים משתמשים בכלים בצורה אפקטיבית יותר.

ניטור ואכיפה

מדיניות בלי אכיפה היא רק רשימת משאלות. ניטור אפקטיבי לא נועד "לתפוס" עובדים — אלא לזהות בעיות מוקדם, לתקן פערי ידע, ולוודא שהמדיניות עובדת בפועל. גישה נכונה לניטור משלבת טכנולוגיה עם תרבות ארגונית שמעודדת שקיפות.

שכבות ניטור מומלצות

1

ניטור ברמת הרשת (Network-Level)

שימוש בכלי DLP (Data Loss Prevention) שמזהים העברת מידע רגיש לכתובות של ספקי AI. הכלים מסוגלים לזהות דפוסים של מידע אישי (כמו מספרי ת.ז., כרטיסי אשראי) ולחסום או להתריע בזמן אמת.
2

ניטור ברמת הכלי (Application-Level)

בכלי AI ארגוניים — הפעלת Audit Logs מלאים. ניתוח תקופתי של הלוגים לזיהוי דפוסים חריגים: שימוש בשעות לא רגילות, הזנות גדולות במיוחד, או גישה מחשבונות לא מורשים.
3

ניטור ברמת נקודת הקצה (Endpoint)

כלי הגנה על תחנות עבודה שיכולים לזהות שימוש באפליקציות AI לא מאושרות, העלאת קבצים לשירותי ענן לא מורשים, או התקנת תוספי דפדפן שמכילים רכיבי AI.

מדדים לניטור שוטף

  • מספר אירועי חסימה של DLP בחודש — ומגמת שינוי לאורך זמן
  • אחוז העובדים שעברו הכשרה ומבחן בהצלחה
  • מספר דיווחים יזומים של עובדים על טעויות או חשדות
  • כמות כלי Shadow AI שזוהו ברשת הארגונית
  • זמן תגובה ממוצע לאירוע דליפת מידע דרך AI
  • ציון תאימות (compliance score) רבעוני

תרבות ארגונית, לא משטרה

הגישה היעילה ביותר משלבת ניטור טכנולוגי עם תרבות של דיווח פתוח. עובד שהזין מידע רגיש בטעות ומדווח מיד — מקבל הדרכה, לא עונש. עובד שמסתיר אירוע — זו בעיה אחרת. כשעובדים יודעים שטעויות בתום לב יטופלו באופן תומך, הם מדווחים מהר יותר — ונזק נמנע.

סיכום ורשימת בקרה

שימוש בטוח ב-AI בארגון הוא לא פרויקט חד-פעמי — אלא תהליך מתמשך שדורש תשומת לב, עדכון ומחויבות ארגונית. הטכנולוגיה משתנה מהר, הכלים מתרבים, והסיכונים מתפתחים. אבל עם מדיניות ברורה, כלים מאושרים, עובדים מודעים, וניטור אפקטיבי — אפשר לקצור את הפירות של AI מבלי לשלם מחיר כבד.

רשימת בקרה למנהלים

  • מיפינו את כל כלי ה-AI שבשימוש בארגון (כולל Shadow AI)
  • כתבנו מדיניות שימוש ב-AI ברורה עם דוגמאות מעשיות
  • סיווגנו את המידע הארגוני לרמות רגישות
  • הגדרנו רשימת כלי AI מאושרים עם גרסאות ארגוניות
  • רכשנו רישיונות Enterprise לכלים שבשימוש — בלי גרסאות חינמיות
  • הגדרנו SSO ובקרת גישה לכל כלי AI מאושר
  • הפעלנו Audit Logs ו-DLP בנקודות הקריטיות
  • ביצענו הכשרה לכל העובדים עם מבחן ואישור
  • קבענו לוח זמנים לריענון רבעוני
  • הגדרנו נוהל תגובה לאירועי דליפת מידע
  • מינינו אחראי AI / CISO שמפקח על יישום המדיניות
  • קבענו סקירה רבעונית של המדיניות והכלים

להתחיל בקטן, לצמוח בטוח

לא חייבים ליישם הכל ביום אחד. התחילו מהצעדים הדחופים ביותר — מדיניות בסיסית, כלי מאושר אחד, הכשרה ראשונית. בנו על זה בהדרגה. הדבר החשוב ביותר הוא להתחיל — כי כל יום בלי מדיניות הוא יום שבו מידע ארגוני עלול לדלוף דרך כלי AI לא מפוקח.

הצעד הבא

ב-TriRoars אנחנו מלווים ארגונים בהטמעה בטוחה של כלי AI — מבניית מדיניות, דרך בחירת כלים, הכשרת עובדים, ועד הקמת מערך ניטור. אם אתם מרגישים שהארגון שלכם צריך מסגרת מסודרת לשימוש ב-AI — דברו איתנו. ניפגש, נבין את הצרכים, ונבנה תוכנית שמתאימה בדיוק לגודל ולאופי הארגון שלכם.

#Security#Policy#Enterprise

רוצים ללמוד עוד על AI?

הצטרפו לסדנאות המקצועיות שלנו וקבלו כלים מעשיים להטמעת AI בעסק.