בינה מלאכותית בעסק שלך, 4 תקלות שלא הכרתם
כלי בינה מלאכותית נכנסו לשגרת העבודה של עסקים רבים בקצב שלא ראינו בטכנולוגיות קודמות. כותבים בעזרתם תוכן שיווקי, מנתחים נתונים, מגיבים ללקוחות, מייצרים תמונות, מתכננים אסטרטגיות. אפילו העובדים משתמשים בכלי הזה, ולא תמיד בהסכמת ובידיעת המעסיק. היעילות היא אמיתית, אין סיבה להכחיש אותה.
אבל לצד היתרונות, נוצרו שאלות משפטיות שהמסגרת החוקית הקיימת בישראל עדיין לא מסוגלת לתת להן מענה מספק. העסקים שמשתמשים בכלים האלה היום יהיו אלה שיצטרכו להתמודד עם ההשלכות של השימוש מחר.
אציג לכם מספר תקלות שחשוב שתהיו מודעים להן ותתמודדו עימן, מראש:
-
מי הבעלים של התוצרים?
כשעובד כותב מאמר, מצלם תמונה או סרטון, מעצב לוגו וכותב קוד, החוק קובע מי הבעלים של היצירה ומה הזכויות שלו (המעסיק, בדרך כלל). כש-Chat GPT או Claude וחבריהם עושים זאת עובר אותו עובד ממש, התמונה פחות ברורה ואולי תשתנה.
שאלת זכויות היוצרים בתוצרי בינה מלאכותית היא אחת השאלות הפתוחות במשפט היום. מקובל לומר, שחוק זכות יוצרים, תשס"ח-2007 מעניק הגנה ליצירה מקורית שנוצרה בידי אדם. מקובל לומר שיצירה שנוצרה בידי מכונה (ולא ברורה מה מידת המעורבות היצירתית הנדרשת מצד האדם, המשתמש) עשויה שלא להיות מוגנת כלל (ואני מניח שבעתיד כשתקראו מאמר זה שנכתב בחודש מרץ 2026 כבר תקראו את נייר העמדה בעניין זה של משרד המשפטים שאני מסייע ביצירתו).
אבל מבחינת בית עסק, יש לכך משמעות רבה: כל יצירה שיצרת עבורך העסק שלך באמצעות בינה מלאכותית, יתכן שלא תהיה ניתנת להגנה בעתיד וכל אחד יוכל להעתיק אותה. יתכן שדבר אינו מפריע לך, אולם חשוב שנבין זאת.
-
הזנת מידע אישי של לקוחות למערכת צד שלישי, והמידע נשמר בחו"ל
כלי בינה מלאכותית עובדים טוב יותר כשמזינים אותם במידע רלוונטי. ככל שתתאים את המאגר ממנו לומד המנוע שלך במידע שמתייחס ספציפית לעסק שלך, התוצרים שתקבל יהיו טובים ומתאימים יותר.
אם נזין למנוע פרטי לקוחות, שיחות שירות, נתוני רכישה, מיילים ותכתובות אחרות וכל מסמך רלוונטי אחר, התוצרים שנקבל יהיו ענייניים וממוקדים יותר.
הצד השני של המטבע הוא שפעולה כזו עלולה לעורר בעיה משפטית של ממש.
חוק הגנת הפרטיות, תשמ"א-1981 ותקנות הגנת הפרטיות (אבטחת מידע), תשע"ז-2017 מגדירים איך מותר להתנהל ומה מותר לעשות עם מידע אישי שנמסר לעסק. העברת מידע כזה לגורם שלישי (כמו ספק כלי הבינה המלאכותית) מחייבת הסכמה של נושא המידע. אלא שמרבית העסקים בישראל טרם התאימו עצמם לשימוש בבינה מלאכותית ואין בידיהם הסכמה של לקוחותיהם לשימוש במידע אישי שלהם במנועי בינה מלאכותית וכמובן גם לא מודיעים להם על כך ולא עומדים ביתר דרישות החוק.
הדבר מקבל משנה תוקף מכיוון שכלי הבינה המלאכותית הנפוצים מופעלים על שרתים מחוץ לישראל. העברת מידע אישי לחו"ל מחייבת עמידה בתנאים שנקבעו בתיקון 13 לחוק ובתקנות הרלוונטיות. בנוסף, מרבית המשתמשים לא באמת בוחנים את הסכמי עיבוד הנתונים (DPA — Data Processing Agreement) שמציעים מפתחי המנועים.
-
הכלי טעה, מי אחראי?
בינה מלאכותית מייצרת תוצאות שנראות סמכותיות ומדויקות. הוא עונה בבטחון ויודע הכל, תמיד. אלא שמסתבר שלא. "הזיות" (Hallucination) משמען תוצר שנמסר לנו וכולל מידע שגוי, ציטוטים שלא קיימים, עובדות שלא קרו, והכל בבטחון מלא ובניסוח משכנע (ראו למשל באתר זה ריכוז של פסקי דין ברחבי העולם שבהם ציינו השופטים כי עורכי דין הגישו לבית המשפט רשימת אסמכתאות ותקדימים שלא היו ולא נבראו).
ועל זה נאמר – It's not a bug; it's a feature.
כלומר, הבינה המלאכותית היא למעשה מנוע סטטיסטי, וככזה, יתכנו בו טעויות.
לכן, זו חובה בסיסית של כל אחד שמשתמש במנוע כדי להפיק תוצרים, לבדוק היטב את אותם תוצרים ולא לסמוך עליהם לבדם. והסיבה פשוטה – ככל שהבינה תטעה, האחריות תהיה של המשתמש שהשתמש בתוצר שלה. לא תוכלו לתבוע את Anthropic או את OpenAI על טעות שהמנוע שלהם עשה. הטעות היתה, ותשאר תמיד, באחריותכם.
נסחו הנחיות ושאלות מדוייקות, בידקו היטב את התוצרים ופשוט תזהרו.
לאזהרה זו יש גם הסבר משפטי. "עקרון האחריותיות" מטיל אחריות ישירה על המשתמש בתוצר, ולא על המנוע.
עקרון זה יכול לחול כאשר עורך דין משתמש במנוע בינה מלאכותית, כשעסק מקים בוט המשיב לפניות הלקוחות באתר ובכלל כשעסק משתמש בתוצרי בינה מלאכותית ללא בדיקה. האחריות תהיה עליכם. המשתמש.
-
לא לפתח מדיניות בינה מלאכותית עסקית
עובדים משתמשים בכלי בינה מלאכותית בעבודתם, לפעמים לפי הנחיית המעסיק לפעמים ביוזמתם ובהחבא (Shadow AI).
לכן, השלב הראשון חייב להיות פיתוח נהלי שימוש בבינה מלאכותית ארגוניים, והטמעה שלהם במדיניות בינה מלאכותית ארגונית. בנוסף, אותה מדיניות צריך שתשולב בהסכם ההעסקה וגם בהדרכות שוטפות לאחר מכן.
ללא צעדים אלו, יקשה על המעסיק (ככל שתוצג כנגדו תביעה או טענה אחרת) להוכיח שעובדיו היו מודעים לסכנה, הפנימו אותה וניסו למנוע אותה.
המדיניות צריך שתגלם כללי שימוש ברורים במנועים השונים, השימושים המותאמים לכל מנוע, האופן בו ניתן להתנהל מול המנועים וכמובן האיסורים המוטלים ביחס אליהם וכדומה.
מנסיוני אני רואה שעסקים שנעזרו בשירותי משרדנו, התאימו את השימוש שלהם בצורה נאותה, יצרו מדיניות מסודרת ותקשרו אותה לעובדים – הגנו על עצמם בצורה ברורה וחד משמעית.
אחרית דבר
בינה מלאכותית היא כלי עסקי לגיטימי וחשוב. לא רק שאין סיבה לא להשתמש בה, בפועל – בשנים הקרובות עסק שלא ישתמש בה, יפגע וישאר מאחור.
הבעיה העיקרית היא לנהל את תהליך השימוש במנוע בצורה חכמה, לקבוע נהלים מתאמים ולתקשר עם העובדים.
לסיכום, בין אם אתם מטמיעים כלי בינה מלאכותית בתהליכים העסקיים שלכם, ובין אם העובדים שלכם משתמשים בהם בכלל ללא ידיעתכם, שווה לעצור, להכיר את הטכנולוגיה והסכנות שבה, ליצור מדיניות שימוש ארגונית בבינה מלאכותית ולהתייעץ עם מומחה על מנת להקטין את החשיפה.
האמור במאמרים השונים באתר הינו הסבר כללי, אינו מהווה ייעוץ משפטי מחייב ואין להסתמך עליו בכל צורה שהיא.
בכל מקרה ספציפי יש להעזר בבעל מקצוע המתמצא בתחום והאמור באתר אינו יכול לספק פתרון לבעיה ספציפית.