כשהבינה המלאכותית ממציאה עליך עובדות שקריות. זה לשון הרע?

תאר לעצמך שאתה בעל תפקיד חשוב (ראש עיר, נניח). עשרות שנים של שירות ציבורי. מוניטין ללא דופי שנבנה במשך שנים של עבודת הציבור. ואז, יום אחד, אנשי הצוות שלך מתחילים לפנות אליך עם שאלות מביכות. מסתבר שתושבים בדקו בגוגל והבינה המלאכותית שמוצגת שם סיפרה להם שנשפטת על שחיתות ושישבת בכלא.

זה לא פנטזיה. זה קרה לראש עיר אמיתי. ב-2023. ולא סתם. הוא היה חושף שחיתויות בשירות האוסטרלי, אלא שתוצאות ב-Chat GPT סיפרו לתושביו שהוא ישב בכלא בשל שוחד. לצערנו, בריאן הוד זנח שנה לאחר מכן את תביעתו כך שאין לנו בה הכרעה, אבל המקרה מעורר שאלות רבות.

כפי שאסביר מיד, הסכנה אינה רק לראשי ערים. גם עסקים צריכים להבין את החשיפה ואת הצורך להתמודד עם לשון הרע והוצאת דיבה.

מה זה "הזיה", ולמה זה קורה?

מודלי שפה גדולים, LLMים (כמו ChatGPT, Claude ו-Gemini) אינם מנועי חיפוש, למרות שאנחנו משתמשים בהם באותו אופן.

מנועי בינה מלאכותית הם מנועים ליצירת תוכן סביר סטטיסטית. זו מטרתם. כשנשאל אותם שאלה, הם לא ניגשים לרשת ומחפשים מידע ספציפי. הם למדו על-גבי מיליארדי מסמכים, ספרים ומילים ויצרו תבניות, משקלים וסבירויות סטטיסטיים. על בסיסם של אלו הם פשוט יוצרים טקסט, טוקן אחרי טוקן.

מטבע הדברים, כשיש הרבה תוכן להתאמן עליו התוצאות יתקרבו למציאות. אלא, שכמו שניתן לתבוע בבריכה שעומקה הממוצע הוא 30 ס"מ, כך אפשר ליפול בהסתמך על טקסט של בינה מלאכותית שנגוע בהזיות.

הבעיה העיקרית היא שלהפיק תוכן שאינו בהכרח נכון זה לא "באג". זה "פיצ'ר". כך מתוכננים המודלים. יותר מכך, מחקרים הראו שלפעמים מנועי בינה מלאכותית משקרים, במודע ובמכוון. השקר הוא תוצר של מבנה המנוע והאלגוריתמים שלו.

תופעה זו (שנקראתhallucinations ) היא בעיה מוכרת וידועה. גם OpenAI, גוגל , אנתרופיק ואחרים מבהירים בתנאי השימוש שלהם שהמערכות שלהם עלולות לייצר מידע לא מדויק על אנשים, מקומות ועובדות. אבל אזהרה בתנאי שימוש שאף אחד לא קורא, לא תגן על העסק שלכם.

כשמודל נשאל על אדם, עסק או אירוע, ואין לו מספיק מידע אמין, הוא מתוכנת שלא להשיב "אני לא יודע". ההיפך. הוא מתוכנת להוסיף וליצור תוכן "נכון סטטיסטית", למרות שהוא לא מכיר תוכן נכון ואמיתי. כך, זו חובה שלו מול מפעיליו האנושיים, למלא את אותן פערים בידע בהמצאות רהוטות, מלאות ביטחון וללא שום הפניה לחוסר הנכונות שלהם.

הבעיה כמובן היא שרוב המשתמשים מתעלמים מכך וסומכים על המכונה (הטיית "המחשב אמר", בלשוני).

לעניין זה ראו למשל את האתר של דמיאן שרלוטין. שרלוטין מרכז פסיקה מרחבי העולם שמתייחסת לפסקי דין, תקדימים והזיות שהגישו עורכי דין שלא בדקו מספיק טוב את תוצרי הבינה המלאכותית. ובאותה מידה זה עלול לפגוע בעסק שלך. גם אם אינך עורך דין או מומחה.

ומקרה ראש העיר לא היה המקרה היחיד. מסתבר, שצ'אט GPT הציג שערוריית סקנדל והטרדה מינית, ונקב בשמו של פרופסור מאוניברסיטת ג'ורג' ושינגטון כנאשם באותה שערוריה (שלא היתה ולא נבראה). הסיפור שהמציאה הבינה המלאכותית כלל פרטים ספציפיים: שמות, מסגרת זמן, ואפילו הפניה למאמר בוושינגטון פוסט (מאמר שמעולם לא נכתב). מי שקיבל את המידע, סמך על המודל ועל הקישור לכתבה ולא בדק – האמין. מי שהאמין והפיץ, מצא את עצמו בבעיה משפטית.

מקרה  בו הליך כזה נדון והגיע לפסק דין היה בעניין מארק וולטרס, מגיש תכנית נשק ברדיו. עיתונאי ביצע סקירה של ארגון מסויים באמצעות מודל הבינה המלאכותית, וזה הציג מקרי מעילה ומרמה שהתרחשו באותו ארגון. כש-Chat GPT התבקש לסכם מסמך אמיתי (שצורף באמצעות קישור), הוא יצר סיכום שקרי לפיו וולטרס מעל בכספי הארגון בו עבד (טענה בדיונית לחלוטין). העיתונאי לא בטח בתוצרים וביקש מהמודל להצביע על פסקאות ספציפיות, וכך היה. המודל סיפק גרסה מפורטת, כולה בדיונית!

התיק נדון בבית משפט בג'ורג'יה והשופטת קבעה כי כל קורא סביר, שהיה לו ניסיון קודם עם מודל בינה מלאכותית, צריך להכיר את יכולתו של זה לספק תגובות בדיוניות לחלוטין. בנוסף, המודל מציג כל פעם אזהרה להמנע מלסמוך על התוצאות, וכל משתמש סביר היה מטיל ספק במידע ומנסה לאמת את העובדות.

מסיבה זו נדחתה התביעה כנגד openAI (מפתחת המנוע).

פסיקה כזו מחדדת את ההבנה שתקלת לשון הרע שיצרה בינה מלאכותית לא נעלמת אלא פשוט האחריות מחליפה מקום. לא מפתח המודל יהיה אחראי אלא אנחנו, המשתמשים!

יישום חוק איסור לשון הרע על תוצרי בינה מלאכותית

חוק איסור לשון הרע, תשכ"ה–1965, מגדירה כ"דבר שפרסומו עלול להשפיל אדם בעיני הבריות או לעשותו מטרה לשנאה, לבוז או ללעג מצד הבריות, לפגוע במשרתו, עסקו, משלח ידו או מקצועו".

כלומר, מידע שקרי שיצר מנוע הבינה המלאכותית בהחלט עלול לעמוד בהגדרה זו.

גם "פרסום" מוגדר בחוק כדבר מה אשר היה מיועד לאדם זולת הנפגע והגיעה לאותו אדם. כלומר, גם פרסום התקיים במקרה כזה והנה הוכחו יסודות הוצאת דיבה.

השאלה היחידה שנותרה הינה מי יהיה האחראי לכך.

אז מי האחראי?

לכאורה, השם הראשון שעולה לפנינו הוא אנתרופיק, גוגל ו-OpenAI. מפתחות המנוע. אלא שלאור פסק הדין שתארנו למעלה עולה כי חברות כאלו, ככל הנראה, יחובו לכל היותר באחריות מופחתת. קל וחומר כשהיום כולם מזהירות בצורה ברורה ובולטת ("ChatGPT can make mistakes. Check important info.").

מצד שני, אם אתם או מי מעובדיכם משתמשים במידע כזה, הלכה ידועה היא שגם מי שהפיץ, שיתף ואולי גם תייג דברי לשון הרע, ישא באחריות אישית, גם אם הוא לא היה זה אשר אמר את הדברים המקוריים. אמנם, גם בעניין זה קיימת הגנה מסויימת, אבל יישומה הישיר אינו מובטח.

לכן, חשוב שאתם, ותוודאו שגם כל עובדיכם, תדעו שכל תוצר של בינה מלאכותית חייב לךעבור בדיקה אובייקטיבית בידיכם. אל תסמכו על התוצאות, מכיוון שעם הן יגרמו לנזק לאדם או חברה כלשהם, האחריות תהיה עליכם.

בהערת אגב אזכיר שכיום ניתן לראות את ניצני הגישה ההיברידית. כזו שמנסה ליצור פתרון משפטי שיעמוד בסטנדרטים הנוכחיים ועדיין יחלק את האחריות בין כל גורמיה. עם זאת, בשלב זה – אל תסמכו על כך.

מה עושים אם מישהו פרסם מידע שקרי עליכם?

אם כבר נתקלתם במצב בו פורסם עליכם מידע שקרי שאינו נכון, אבל המקור למידע היה במנוע בינה מלאכותית, אל תרימו ידיים.

יש מה לעשות!

אתם מוזמנים לפנות אלינו, להתייעץ ולהתמודד עם המפר בצורה ישירה על מנת למנוע את הפגיעה בכם.