בשנים האחרונות, ובפרט בחודשים האחרונים, אנו עדים לעלייה משמעותית בשימוש בבינה מלאכותית גנרטיבית בתעשיות שונות. ממודלים שיודעים ליצור אמנות בלחיצת כפתור, ועד למודלים טקסטואליים שלמדו לכתוב דוחות, לתרגם מאמרים ולסכם מצגות - הטכנולוגיה פורצת הדרך הזו הצליחה להוכיח את הפוטנציאל האדיר ומעורר ההשתאות שלה.
עם זאת, ישנם כמה תחומים שבהם השימוש ב-AI מעורר חששות. אחד מהם, ואולי אף העיקרי שבהם, הוא אבטחת סייבר. אחת הדוגמאות המוכרות והבולטות ביותר היא המקרה של ג'וזף קוקס, עיתונאי Vice שהשתמש בטכנולוגיית בינה מלאכותית גנרטיבית כדי לפרוץ לחשבון הבנק של עצמו. קוקס השתמש בתוכנה מבוססת-AI שיצרה אודיו כדי לחקות את הקול של עצמו, ואז הערים על נציגי שירות הלקוחות של הבנק על מנת שיעניקו לו גישה לחשבון שלו - מבלי שהוא דיבר איתם בעצמו. מקרה זה ממחיש עד כמה קל לגורם עם כוונות זדון להשתמש בטכנולוגיה מסוג זה כדי לעקוף אמצעי אבטחה.
באופן רחב יותר, השימוש ב-AI גנרטיבי כדי לאתר ולייצר חולשות מלמד על מגמת התרחבות של לוחמת הסייבר בעולם כולו. המשמעות היא שככל שהטכנולוגיה מתקדמת יותר, כך היא יוצרת וקטורי תקיפה חדשים שהאקרים ושחקנים זדוניים יכולים ועלולים לנצל. למשל, ניתן להשתמש בבינה מלאכותית גנרטיבית ליצירת העתקים משכנעים של כמעט כל דבר, כולל הקלטות קוליות ותמונות פנים, ובאלו ניתן להשתמש לפעילויות הונאה שונות - החל מגניבת זהות, ועד להפצת דיסאינפורמציה. המשמעות היא שבנוסף לשטחי ההתקפה המסורתיים שחברות צריכות להגן עליהם, כגון רשתות, נקודות קצה ויישומים ארגוניים - ישנם כעת כלי התקפה חדשים שארגונים חייבים להיות מודעים אליהם: כלי שיבוט קול ותמונות, טכנולוגיות דיפ-פייק מתקדמות, וכלי פריצה המבוססים בעצמם על בינה מלאכותית, ויכולים לחקות התנהגות אנושית וללמוד ממתקפות סייבר קודמות. עם עלייתם של כלי פריצה אלו, עתיד אבטחת הסייבר הופך למאתגר יותר ויותר ופושעים במרחב המקוון ימשיכו לפתח התקפות מתוחכמות יותר שיכולות לעקוף את אמצעי האבטחה המסורתיים.
אך המסקנה המתבקשת מהתופעה הזו - הפוכה ב-180 מעלות מזו שמציעים אילון מאסק, יובל נח הררי ומומחים אחרים הקוראים לעצור זמנית פיתוח של בינה מלאכותית. החשש שלהם מובן: תרחישים אפוקליפטיים שראשיתם בסופר-AI שחכם יותר מבני אדם. אך את הדלת הזו כבר לא ניתן לסגור, ואת מירוץ החימוש של AI כבר אין אפשרות לעצור. החששות מובנים וגדולים, אך הסכנות גדולות אף יותר - והדרך להישמר היא לא למנוע חדשנות, אלא ללמוד כיצד לחדש באחריות. נאיבי להפליא, ולמען האמת כמעט מנותק, לחשוב שהשהייה או עצירה של פיתוחי בינה מלאכותית תסייע לביטחון האישי של אנשים וארגונים ברשת, תפחית את איומי הסייבר במרחב המקוון, ותשפר את מידת הבטיחות והפרטיות של כולנו. הסיבה היא שיש רק צד אחד שבאמת יעמוד באותה השהיה - והוא המערב. אין ספק ששחקנים זדוניים ומדינות אחרות, כמו סין, איראן, רוסיה וקוריאה הצפונית, לא יפסיקו את המחקר שלהן בתחום הבינה המלאכותית, לרבות כלים התקפיים ומסוכנים.
בינה מלאכותית עתידה להיות אחד היתרונות הכלכליים והטכנולוגיים המשמעותיים ביותר של המאה הקרובה, וככזו גם להוות כלי סייבר עוצמתי - לרבות בצד ההגנתי, עם פיתוח של אסטרטגיות אבטחה רב-שכבתיות שתשלב גם אמצעי מבוססי-AI לצד אמצעי האבטחה המסורתיים, וגם הכשרה של אנשי אבטחה לזהות איומים חדשים ולהגיב אליהם. השהיית ניסויי בינה מלאכותית למשך שישה חודשים תעמיד מדינות וחברות מערביות בעמדת נחיתות משמעותית מול היריבים והמתחרים בשאר העולם, כאשר איש מהשחקנים האחרים לא יישב וימתין לארה"ב ולשאר מדינות המערב בחיבוק ידיים.
בעולם אבטחת הסייבר נהוג לחלק את המגרש לשניים: תוקפים ומגנים. הראשונים ימנפו את פרק הזמן הזה כדי לשכלל את היכולות שלהם. אל לנו לזלזל במה שחוקרי בינה מלאכותית אחרים יגלו במהלך תקופה של שישה חודשים; אסור לעולם להתעלם ממירוץ החימוש של AI שכבר מתקיים כרגע. המשמעות היא שהאינטרסים של ביטחון לאומי, ועולמי, תלויים קודם כל באיזון ובחתירה של המערב לשכלל את היכולות הטכנולוגיות שלו ואת היכולות ההגנתיות שלו מול האיומים המתגברים ששדה הבינה המלאכותית טומן בחובו.
הכותב הוא מייסד-שותף וסמנכ"ל טכנולוגיות (CTO) של חברת ארמיס סקיוריטי