בינה מלאכותית. סיכון והזדמנות. איך מתמודדים?
מה מותר, מה מסוכן ומה חשוב לדעת כשמשתמשים בבינה מלאכותית (AI) בעסק שלך?
מדריך לשאלות שכל ארגון חייב לשאול את עצמו, עם תשובות של מומחה.
האם אתה יודע מה עליך לעשות גם אם אתה בכלל לא משתמש בבינה מלאכותית?
רוצה לבדוק את עצמך ולהתכונן מראש ליום סגריר? צור קשר ונדבר.
-
הרשות להגנת הפרטיות בישראל פרסמה טיוטת הנחיות שמסבירות כיצד חלים דיני הגנת הפרטיות על מערכות בינה מלאכותית, וראו כאן.
עיקרן הוא זה (ומדובר בקצירת האומר ולא בסיכום של ההנחיה):
- על העסק לבצע הערכת סיכוני פרטיות (DPIA) המתחשבת בשימוש בבינה מלאכותית.
- על העסקים לתת הודעה ברורה למשתמשים כשהם מתקשרים עם מערכות אוןטומטיות ולא עם אדם.
- מומלץ (לא חובה) למנות קצין פרטיות שיעסוק גם בנושא זה.
- יש לוודא אבטחת מידע חזקה.
להרחבה על נושאי הגנת הפרטיות ותיקון 13 ראו גם כאן.
-
שימוש במידע סודי (עסקי, משפטי או אישי) בעת כתיבת הנחיה (פרומפט) למנוע בינה מלאכותית היא סיכון משמעותי.
רוב השירותים האוטונומיים, בוודאי החינמיים, מבהירים כי הם עושים שימוש בנתונים שנזין אליהם גם לשם שיפור המודל, ובמקרה כזה מדובר בסיכון להפרת הסודיות במידע שנזין אליהם. ידוע המקרה בו סמסונג גילתה שעובדיה הזינו מסמכים סודיים לבוט והנזק שנגרם לה לא היה מבוטל. ראו מה קרה לסמסונג.
-
תחילה סננו והמנעו מהעלאת מידע סודי או אישי למנועים השונים. סננו, מיחקו והוציאו מהמסמכים ומההנחיות כל מידע כזה.
במקרים בהם אין ברירה, חשוב לבחור בכלים פרטיים, שמבטיחים שהמידע נשמר בשרת שלכם ולא משמש לאימון המודל. קראו את תנאי השימוש והצהרת הפרטיות של הכלים וודאו שהמידע שתזינו אליהם אינו משמש לאימון המנוע.
בנוסף, כשהשירות ניתן בידי מערכת אוטומטית ולא בידי בן אדם צריך להבהיר את זה למשתמש ולפעול בשקיפות. בישראל בינתיים, זו רק המלצה. ועדיין מומלץ להזהר.
גם חשוב שנבין שאם המערכת טעתה או הציגה מידע לא נכון, אנחנו שנשתמש בו נישא באחריות. לכן, הפתרון פשוט – לא משתמשים בתוצרי בינה מלאכותית מבלי לבדוק אותם בצורה מלאה ומדוייקת.
-
בישראל נכון לנובמבר 2025 אין זכות יוצרים ביצירה שנוצרה על ידי מחשב בלבד. זו הנחה החוזרת בפסיקה בישראל ובהנחיות רשות הפרטיות.
כמובן שאפשר למצוא גם כאלו שמציעים פתרון אחר. כך למשל, עורכי הדין יורם ליכטנשטיין ואסף כהן-צידון, מציעים במאמר המרתק שכתבו (ראו כאן) הצעה ליצור "זכות שכנה". כלומר, זכות דומה לזכות יוצרים שתאפשר הגנה על יצירה שתהליך יצירתה היה מקורי ויצירתי מספיק על אף שלא מדובר בזכות יוצרים של ממש.
בנוסף, זכויות היוצרים חלות על ההנחיות שנתתם, הפרומפטים, ועדיין התוצר שיצרה המכונה אינו מוגן.
-
האחריות לתוצאת ולתשובות של מנועי בינה מלאכותית מוטלת על העסק שמשתמש בה ובתוצרים שלה. זו אחריותו המלאה לבדוק את התוצרים לפני השימוש. אחרת – האחריות תהיה שלו.
הרי אין מדובר באישיות משפטית נפרדת, כמו חברה בע"מ למשל. אי אפשר להטיל עליה אחריות לשימוש בתוצרים שלה.
כלל הבסיס הוא שכשהחלטה עסקית או מסחרית או משפטית גרמה לאחרים נזק, האחריות של העסק תמשיך ותחול גם אם הסתמך על תוצרים ממוחשבים שלא הוא יצר.
-
כל עסק שלא יצור נהלי שימוש בבינה מלאכותית, יהפוך אותם למדיניות עסקית מסודרת וישלב אותם במערך ההסכמי של כל עובד ועובד, יהיה בהכרח חשוף לסיכוני בינה מלאכותית אפילו בלי שיהיה מודע לכך.
-
מדיניות עסקית כזו תשלב את הנהלים שהכנו, תסביר לעובדים איך משתמשים בכלים אוטונומיים, מה מותר ומה אסור ובכלל – תקבע ותטמיע סטנדרטים, נהלים, הגבלות והנחיות לעובדים.
העקרונות הבסיסיים שאומצו בחו"ל (וברגולציה ישראלית גם כן) בנושא זה הם חשובים ונתייחס אליהם גם במסמך המדיניות שנכתוב:
- שקיפות,
- אחריותיות,
- פרטיות,
- אבטחת מידע
- והוגנות.
חשוב שעסקים (גם אם הם לא משתמשים בבינה מלאכותית, כי הרי העובדים שלהם כן) יאמצו עקרונות כאלו ויכללו אותם במדיניות שיכינו.
לכן, חשוב שתשבו עם עורך הדין המומחה שלכם, תקבעו ערכים וסטנדרטים ותיצרו נהלים מוגדרים ומסמך מדיניות ברור וכמובן תקפידו על הצגה שלו לעובדים ועל הפעלה שוטפת שלה.
-
גם על פי הנחיות רשות הגנת הפרטיות בישראל, כל עסק שמשתמש בבינ"מ צריך ליצור נהלים ולאמץ מדיניות בינה מלאכותית הכוללת גם:
- עקרונות בסיסיים חישובים (כמו שקיפות, אחריותיות, פרטיות, אבטחת מידע והוגנות)
- הנחיות ברורות לעובדים: מה מותר, מה אסור ואיך משתמשים בכלי בצורה נכונה.
- קיום של "אדם בלולאה" שיבקר ויעקוב אחר החלטות ותוצרים בעלי משמעות.
- ביצוע הערכות סיכון לכל ייצור ושימוש במערכות בינה מלאכותית, ובמיוחד כאלו בסיכון גבוה.
- ניטור ודיווח: יש לנהל מעקב שוטף על השימוש בכלים ועל עמידתו ועמידת העובדים בדרישות.
על בסיס כללים אלו יש ליצור מדיניות ונהלים בכל עסק, ולהטמיע אותם בהתנהלות היומיומית.
-
החל מיולי 2025 ואילך ניתן לאתר פסקי דין אמריקאים חשובים (Kadrey v. Meta וגם Bartz v. Anthropic) בהם נקבע שאימון מודל על יצירות מוגנות יחשב במקרים מתאימים כשימוש הוגן, ויהיה מוגן.
בישראל, משרד המשפטים פרסם עוד בשנת 2022 חוות דעת (וראו כאן) הקובעת קביעה דומה: במקרים הרגילים, אימון באמצעות תוכן מוגן יחשב כשימוש הוגן, אם לא יתקיימו חריגים.
-
על פי הנחיות הרשות להגנת הפרטיות בישראל, כשמערכת בינה מלאכותית מתקשרת עם אדם, יש להבהיר זאת לאדם.
ההודעה שתמסר לו צריך שתכלול הודעה ברורה כזו וגם פירוט של סוגי המידע הנאספים, מטרות האיסוף, סיכונים ידועים וכדומה.
-
שימוש בתוצר בינ"מ ללא בדיקה הוא אחד מהסיכונים המובהקים והחשובים שצריך להתמודד איתם.
תניחו, שאתם האחראים לתוצרים של המנוע, ואל תעשו שימוש באף תוצר מבלי שבדקתם אותו היטב קודם לכן.
ראו למשל באתר זה – https://www.damiencharlotin.com/hallucinations/ – רשימת פסקי דין מתעדכנת של עורכי דין שהגישו לבתי המשפט תוצרים של בינה מלאכותית שלא בדקו אותה מספיק, והסנקציות שנקבעו להם.
מדריך זה נכתב ע"י עו"ד יורם ליכטנשטיין, מומחה למשפט וטכנולוגיה, פרטיות ובינה מלאכותית עסקית.
האמור במאמרים השונים באתר הינו הסבר כללי, אינו מהווה ייעוץ משפטי מחייב ואין להסתמך עליו בכל צורה שהיא.
בכל מקרה ספציפי יש להעזר בבעל מקצוע המתמצא בתחום והאמור באתר אינו יכול לספק פתרון לבעיה ספציפית.