בעת האחרונה פרצה לחיינו הבינה המלאכותית (כדוגמת Chat GPT) והפכה לחלק בלתי נפרד מחיי היום יום של רבים מאיתנו. נוכח היקף השימושים האפשריים, הפכה הבינה המלאכותית לכלי עזר זמין במגוון של תחומים, החל מאלתור מתכון לארוחת ערב ועד ביצוע מטלות לימודיות. ברור לכולנו, כי הבינה המלאכותית נוכחת גם במקום העבודה.
עולם העבודה אינו זר לשינויים טכנולוגיים. האוטומציה של מערכות שונות, האפשרות לעבוד מרחוק, הנגישות למידע מהיר ועוד, שירתו מעסיקים ועובדים. הדבר אפשר למעסיקים לחסוך זמן וכסף ואפשר לעובדים להתמקצע בתפקידים שונים. לא פעם שינויים טכנולוגיים התקבלו תחילה בחשדנות ועם הזמן הפכו לחלק בלתי נפרד מעולם העבודה.
האם הבינה המלאכותית היא פשוט השלב הטכנולוגי הבא בעולם העבודה, או שיש כאן שינוי של כללי המשחק, העלול לגרום יותר נזק מתועלת?
קל לחשוב על היתרונות של בינה מלאכותית במקום העבודה. היא יכולה לקצר תהליכי עבודה, לפתוח כיווני מחשבה, לסייע בשיפור הכתיבה, לאפשר נגישות למקורות ידע רבים במהירות, ועוד. משימות שדרשו השקעת שעות עבודה רבות, יכולות להתבצע באמצעות הבינה המלאכותית בדקות בודדות.
מנקודת מבט זו, נראה כי מדובר בכלי עבודה לגיטימי ואף רצוי. בדיוק כפי שהמחשב, האינטרנט ומנועי החיפוש שינו וייעלו את העבודה, נראה שגם הבינה המלאכותית יכולה לתרום את חלקה, ולכאורה באופן יותר מתקדם.
עם זאת, אי אפשר להתעלם מכך שלא מדובר רק בעוד אמצעי טכנולוגי. במקצועות בהם יש חשיבות לפיתוח המחשבה, היצירתיות, למציאות פתרונות ורעיונות פורצי דרך, השימוש בבינה מלאכותית עלול להוביל לניוון החשיבה העצמאית והמקורית של העובדים ולעידוד עצלנות.
עוד חשוב לזכור, כי בשלב זה טרם הובהרה מידת מהימנות המידע המתקבל באמצעות הבינה המלאכותית. לכן, הסתמכות אוטומטית על תוצריה עלולה להוביל לטעויות.
במציאות הקיימת נראה כי הבינה המלאכותית כאן להישאר ולהוות חלק מארגז הכלים של העובדים. על כן, הכדור במגרש של המעסיקים שצריכים להגדיר את גבולות השימוש בה.
אחת השאלות המתבקשות היא האם יש להטיל חובת גילוי על עובד אשר השתמש בבינה מלאכותית במסגרת עבודתו. האם עובד שמציג תוצר שהתקבל כתוצאה מפניה אל הבינה המלאכותית כפרי עמלו מועל באמון של המעסיק?
נניח מקרה בו מעסיק ביקש מעובד להכין מצגת מקצועית ללקוח. נבחן שני תרחישים: באחד, העובד מצא באינטרנט מצגת שמתאימה בדיוק לצרכיו והעתיק אותה; בשני, העובד ביקש מהבינה המלאכותית להכין מצגת. על פניו, בשני המקרים העובד לא ביצע את העבודה בעצמו ולא שיקף זאת למעסיק. במקרה הראשון, בו עובד מעתיק מצגת של צד ג', ניתן לראות כהפרת אמון או אף עבירת משמעת, אולם המקרה השני מורכב יותר.
בהנחה שלא היה איסור מפורש של המעסיק על שימוש בבינה מלאכותית או מדיניות המחייבת גילוי נאות, לא בהכרח ניתן לבסס עילה של הפרת אמון או עבירת משמעת.
הקושי מתחדד עוד יותר, במקומות בהם העובד לא עושה שימוש בלעדי בבינה המלאכותית, אלא משתמש בה רק ככלי עזר. הרי מה ההבדל בין שיפור ניסוח של הודעת דוא"ל באנגלית באמצעות בינה מלאכותית לבין אותה פעולה באמצעות תוכנות תרגום? ומה אם העובד לא ניסח את מלוא ההודעה אלא רק הזין לבינה המלאכותית את הנקודות המרכזיות?
לכן, הגבול בין שימוש לגיטימי לבין עבירת משמעת וכן גבולות חובת הגילוי הנאות, אינם חד משמעיים.
שאלה נוספת שמתעוררת היא על מי מוטלת האחריות על מהימנות התוצר – על העובד שעשה שימוש בבינה המלאכותית או על המעסיק שאפשר זאת?
עו"ד בניו יורק הגיש לבית המשפט תחקיר משפטי שנעשה תוך שימוש בבינה מלאכותית. התחקיר כלל הפנייה להליכים משפטיים ואף לציטוטים מתוכם, שבדיעבד התברר שכלל לא התרחשו אלא הומצאו ע"י הבינה המלאכותית.
במקרה זה, בו ניתן היה לערוך בדיקה מהירה של מהימנות המידע תוך השוואה למאגרים משפטיים, קל יותר להטיל את האחריות על העובד שלא ביצע בקרה מינימאלית. אך מה הדין במקרים בהם בדיקת מהימנות המידע מורכבת יותר? מהו היקף חובת הבקרה והפיקוח שניתן להטיל על העובד?
מעסיק המבקש להנות מיתרונות הבינה המלאכותית במקום העבודה ויטיל מאידך חובת בקרה נרחבת מדי על העובדים, עלול לצמצם באופן ניכר את היתרונות של השימוש בכלי זה. שכן, אם עובדים ידרשו להשקיע זמן משמעותי בביצוע בקרה ופיקוח על התוצרים שיתקבלו, אלמנט חסכון הזמן יתפוגג. לכן, נראה כי מעסיק שמבקש לנצל את היתרונות יידרש גם לשאת במידה מסוימת של אחריות ביחס לטיב התוצרים ולא יוכל בהכרח לגלגל את מלוא האחריות על העובד.
מאחר ונראה כי הבינה המלאכותית כאן להישאר, נכון יהיה להסדיר מדיניות המגדירה את גבולות השימוש בה במקום העבודה.
מעסיק רשאי לאסור באופן גורף שימוש בבינה מלאכותית. הוא רשאי לקבוע כי השימוש לצרכי עבודה יהווה עבירת משמעת ואף למנוע את הגישה ממחשבי העבודה. עם זאת, מדיניות מסוג זה לא בהכרח תהיה ברת אכיפה, שכן ייתכן קושי להוכיח כי אכן נעשה שימוש בבינה המלאכותית. מעסיק שמעוניין למנוע את השימוש בבינה מלאכותית, אולם לא קובע מדיניות שכזו, יתקשה לנקוט בצעדים כנגד עובד שעשה שימוש כאמור בתום לב.
מנגד, מעסיק רשאי לקבוע מדיניות המאמצת את היתרונות של הבינה המלאכותית אך קובעת את גבולות השימוש הנכון והראוי. מדיניות כאמור יכולה לכלול הוראות כגון: חובת גילוי; סוגי משימות בהן השימוש מותר; הליך סדור של אימות ובקרה; סוגי מידע סודי של המעסיק שלא ניתן יהיה להעלות למערכת ועוד.
מאחר ואנו נמצאים בטריטוריה חדשה, חשוב כבר עתה לגבש מדיניות ראשונית באופן שייתן וודאות גם לעובדים וגם למעסיקים. בעולם בו הפיתוחים הטכנולוגיים משתנים במהירות, מעסיקים חייבים לעקוב ולהתאים את דפוסי העבודה להתקדמות הטכנולוגית.
נראה כי גם הבינה המלאכותית מכירה בגבולותיה. שאלנו את Chat GPT על עמדתה בנושא. הבינה המלאכותית השיבה כי היא "כלי עבודה לגיטימי במגוון הקשרים", אולם "היא נועדה להרחיב את העבודה האנושית ולא להחליף אותה", שכן "היא מייצרת לעיתים תגובות לא נכונות" ולכן "זה חיוני לבדוק ולאמת את התוצר".
מאת עו"ד הגר גיארי בצלאל, שותפה במשרד מאירסון ראובן ושות'
d&b – לדעת להחליט