בינה מלאכותית. סיכון והזדמנות. איך מתמודדים?
מה מותר, מה מסוכן ומה חשוב לדעת כשמשתמשים בבינה מלאכותית (AI) בעסק שלך?
האם אתה יודע מה עליך לעשות גם אם אתה בכלל לא משתמש בבינה מלאכותית?
מדריך לשאלות שכל ארגון חייב לשאול את עצמו, עם תשובות של מומחה.
רוצה לבדוק את עצמך ולהתכונן מראש ליום סגריר – צור קשר ונדבר.
-
כתיבת פרומפטים שכוללים אלמנטים סודיים (עסקית, משפטית, אישיותית) או פרטיים, מותרת אבל היא סיכון מהותי שחשוב שנכיר.
רוב השירותים האוטונומיים (בוודאי החינמיים) עלולים להשתמש בכל מה שתכתבו ותבקשו ממנו לצרכי אימון עתידי. במצב כזה, כשיש חובת סודיות או נאמנות (למשל כלפי לקוחות, עובדים ושותפים), הזנת מידע כזה עלולה להוות הפרת חוק ויוצרת חשיפה מסוכנת לעסק שלכם.
גם אם עובדיכם הזינו פרטים כאלו ללא ידיעתכם, העסק שלכם עלול להפגע. ראו מה קרה לסמסונג.
-
לא תמיד התוצר של מנועי הבינה יהיה בבעלותכם המלאה. אז השימוש עצמון מותר אבל חשוב להיות מודעים למצב ולהבין שרוב מערכות ה-AI מעניקות רישיון שימוש בתוצרים אבל לא זכויות בלעדיות בהם. המערכת יכולה ליצור תוכן דומה עבור אחרים ולא תוכלו למנוע את זה ממנה אבל כן תוכלו להשתמש בתכנים.
בנוסף, תנאי השימוש גם אינם מבטיחים שהתוכן שנוצר עבורנו לא יפר זכויות של אחרים, ואנחנו צריכים לבדוק שזה המצב.
-
אין זכות יוצרים ביצירה שנוצרה בידי מחשב בלבד (בישראל, נכון לאוגוסט 2025).
זו אמנם הנחה, ואנאלוגיה מפסיקה אחרת, אבל בפועל רוב העוסקים בתחום מסכימים לכך.
עם זאת, אפשר למצוא גם כאלו שמציעים פתרון אחר. כך למשל, עורכי הדין יורם ליכטנשטיין ואסף כהן-צידון, מציעים במאמר המרתק שכתבו (ונמצא כאן) הצעה ליצור "זכות שכנה". כלומר, זכות דומה לזכות יוצרים שתאפשר הגנה על יצירה שתהליך יצירתה היה מקורי ויצירתי מספיק.
-
כשהשירות ניתן בידי מערכת אוטומטית ולא בידי בן אדם צריך להבהיר את זה למשתמש. בינתיים, בישראל זו רק המלצה, ועדיין – זה עקרון חשוב שנקרא עקרון השקיפות.
במיוחד, חשוב לשים לב, שאם המערכת הטעתה או הציגה מידע לא נכון למשתמש, האחריות לכך מוטלת על מי שהפעיל את המנוע בעסק שלו ולכן כדאי להזהר.
שימו לב – לא משתמשים בתוצרי בינה מלאכותית מבלי לבדוק אותם בצורה מלאה ומדוייקת.
-
מדיניות כזו היא הכרח כי בלעדיה יהיה העסק חשוף לסיכוני בינה מלאכותית אפילו בלי שיהיה מודע לכך.
-
מדיניות כזו צריכה לשלב את הנהלים שהכנת, להסביר לעובדים איך משתמשים בכלים אוטונומיים, מה מותר ומה אסור ובכלל – לקבוע ולהטמיע סטנדרטים, נהלים, הגבלות והנחיות לעובדים.
העקרונות הבסיסיים שאומצו בחו"ל (וברגולציה ישראלית גם כן) בנושא זה הם: שקיפות, אחריותיות, פרטיות, אבטחת מידע והוגנות. עוד נדרש שיהיה מעורב "אדם בהחלטה" (Man in the Loop).
חשוב שעסקים (גם אם הם לא משתמשים בבינה מלאכותית, כי הרי העובדים שלהם כן) יאמצו עקרונות כאלו.
-
עסק שלא יאמץ נהלי שימוש נכון ואחראי במערכות אוטונומיות ולא ישלב אותן במסמך מדיניות ברור, עלול להפגע ולהחשף לסיכונים משפטיים כואבים, גם אם חובה כזו לא קיימת בחוק.
חשוב שתשבו עם עורך הדין המומחה שלכם, תקבעו ערכים וסטנדרטים ותיצרו נהלים מוגדרים ומסמך מדיניות ברור. למשל שימושים שיהיו אסורים בעסק שלכם או הקפדה על כללים זהירים.
-
חשוב להביא את מסמך המדיניות שניסחתם לידיעה ברורה של העובדים.
את זה ניתן לעשות גם באמצעות עריכת הדרכות עובדים במטרה למנוע שימושים מסוכנים וחשיפת מידע חשוב.
-
האחריות לתוצאת ולתשובות של מנועי בינה מלאכותית מוטלת על העסק שמשתמש בה ובתוצרים שלה. זו אחריותו המלאה לבדוק את התוצרים לפני השימוש. אחרת – האחריות תהיה שלו.
הרי זו אינה אישיות משפטית נפרדת, בניגוד לחברה בע"מ למשל. אי אפשר להטיל עליה אחריות לשימוש בתוצרים שלה.
כלל הבסיס הוא שכשהחלטה עסקית או מסחרית או משפטית גרמה לאחרים נזק, האחריות של העסק תמשיך ותחול גם אם הסתמך על תוצרים ממוחשבים שלא הוא יצר.
-
אימון מנועי בינה מלאכותית על יצירות מוגנות יחשב כשימוש הוגן, לפחות לפי שני פסקי דין אמריקאים שניתנו ביולי 2025 וקבעו שבארה"ב זה יהיה המצב. ראו פוסט של עוה"ד יורם ליכטנשטיין בנושא שעוסק בפסק הדין הראשון בעניין Bartz v. Anthropic (כן ראו את Kadry v. Meta(.
לפני יולי 2025 זו היתה שאלה משפטית שנויה במחלוקת וחוות דעת של משרד המשפטים הגיעה למסקנה ששימוש ביצירות מוגנות לשם אימון בינה מלאכותית יחשב כ"שימוש הוגן".
מדריך זה נכתב ע"י עו"ד יורם ליכטנשטיין, מומחה למשפט וטכנולוגיה, פרטיות ובינה מלאכותית עסקית.
האמור במאמרים השונים באתר הינו הסבר כללי, אינו מהווה ייעוץ משפטי מחייב ואין להסתמך עליו בכל צורה שהיא.
בכל מקרה ספציפי יש להעזר בבעל מקצוע המתמצא בתחום והאמור באתר אינו יכול לספק פתרון לבעיה ספציפית.