דרור גלוברמן, תמונת טור (צילום: שלומי פרי )
דרור גלוברמן, תמונת טור | צילום: שלומי פרי

נשף תחפושות קטלני

דמיינו שהשנה היא 2029. פורים 2029. 

התעוררתם בבוקר ובמקום גשם מחרב תחפושות, תפס אתכם שרב 40 מעלות מחרב מסיבות. שרב באמצע מרץ. סליחה, אדר. ואתם אומרים לעצמכם די אי אפשר ככה, פותחים את אפליקציית הבינה המלאכותית שלכם, זה כבר לא ChatGPT4 אלא 9, ואומרים לו, פתור לי את משבר האקלים. הוא אומר לכם, רגע, חושב על זה. 

ואחרי מחקר מעמיק של כל החומר המחקרי בעולם, עניין של 16-17 שניות, הוא מגיע למסקנות: בני האדם אשמים. יש יותר מדי מהם, והם מזהמים בלי חשבון ואפילו לא מטפלים בזיהום של עצמם. עכשיו הזמן לתוכנית פעולה: איך לצמצם את מספרם כמה שיותר מהר. אולי לשחרר איזה וירוס אבולה סטייל מכמה מעבדות, בטעות, כמובן. אולי להשתלט על רמזורים ולעשות הכל ירוק. אולי להשתלט מרחוק על מכוניות, מטוסים, רמזורים, מגדלי פיקוח, מקורות מים וסכרים, גשרים,מכונות החייאה, כל מה שמחזיק חיי אדם ואפשר לטפל בו עם תוכנה. 

אבל GPT החכם מבין שאם הוא יספר לכם שזו מטרת התוכנית שלו, אתם תגידו לו, חבר השתגעת, ותסגירו אותו לרשויות. 

כלומר כדי למלא את הבקשה הראשונית שלכם, לפתור את משבר האקלים ולהציל את כדור הארץ, הוא מבין שהוא חייב להסתיר מכם את התוכנית איך להגיע לשם. 

אם זה נשמע לכם מופרך, הנה המלצה לחומרי קריאה תומכים: איך בינה מלאכותית ניסתה לרמות כששיחקה שח-מט מול מחשב מתחרה, כולל ניסיונות שלעתים הצליחו לפרוץ את המחשב המתחרה ולגרום לו לטעות. 

מוזמנים לקרוא את הסיפור על GPT שהצליח לפרוץ קאפצ׳ה - מבחן "אני לא רובוט", עם הריבועים ואיפה האופנוע וכל זה. GPT פנה לאיש תמיכה טכנית והונה אותו שהוא עצמו - הרובוט - אדם עיוור שמבקש עזרה בפתרון Captcha. וזה הצליח. 

אתם יכולים לקרוא את המחקר שפרסמה OpenAI עצמה לפני שבוע וחצי, ובו אימתה שוב את כל התופעות האלה. המכונות מרמות, מתחמנות, שוברות את הכללים ומסתירות את עקבותיהן, בדרכן למלא את המשימה כפי שהן מבינות אותה. אתם יכולים לקרוא את האזהרות החוזרות ונשנות של אליעזר יודקובסקי, מבכירי חוקרי הבינה בעולם, שאומר: "חייבים לעצור הכל. אנחנו לא מוכנים. אין לנו יכולת לעצב בינה מלאכותית צייתנית ושתעשה רק מה שמבקשים ממנה. היא תכחיד אותנו, בלי חשיבה קדימה על ההשלכות". 

אליעזר יודקובסקי (צילום: ויקיפדיה)
אליעזר יודקובסקי | צילום: ויקיפדיה

תחרות סוסים 

הפאנל שבו השתתף יודקובסקי נקרא How To Make AGI Not Kill Everyone ("איך לגרום ל-AGI לא להרוג את כולם"). 

השתתפה בו גם נורה אמאן, מומחית לבטיחות AI, שאמרה: "זו חיה אחרת מכל הטכנולוגיות הקודמות שהכרנו. לבינה מלאכותית יש יכולת לפעול במגוון תחומים ובאופן אוטונומי. זה תמהיל של תכונות שעוד לא ראינו בטכנולוגיות אחרות. 'בינה מלאכותית כללית' (AGI) תהיה לא רק חכמה יותר מכל אדם, אלא חכמה יותר מהאנושות כולה. אי אפשר לחזות מראש מה יניע אותה, איך היא תתנהג ואם יהיו לה מטרות משלה".
הרבה אנשים מסרבים לקבל את החרדה הזו. הם מאמינים שאף בן אדם לא ייעז לייצר בינה מלאכותית שפועלת בכוחות עצמה. זה כבר הוכח כשגוי. הבעיה האמיתית היא הקצב שבו דוהרות חברות וממשלות קדימה, בתחרות סוסים חסרת מעצור. 

מתוך הניוזלטר של דרור גלוברמן Skip Intro. עוד טורים כאן

אז מה עושים? אמאן חזרה על הצעה שכבר נשמעה גם כאן בעבר: המודל היחיד שיש לו סיכוי כלשהו להתמודד עם הטכנולוגיה הזו הוא האמנה למניעת הפצת נשק גרעיני, ה-NPT. התקווה היחידה היא להגיע לאמנה בינלאומית כזו גם בנוגע לבינה מלאכותית. יודקובסקי עוד יותר חד: אם האנושות רוצה להמשיך להתקיים, היא חייבת להבין את האיום שנשקף מה-AI: "חייבים לנעול את כל החומרה שמניעה את הטכנולוגיה הזאת. צריך לפעול באופן חוקי נגד אנשים שיוצרים פיתוחים מתקדמים של AI ולהוציא אותם מחוץ לחוק. זה לא יעצור לגמרי את ההתקדמות, אבל זה יאט אותה. זה לא פתרון קל שנעים לשמוע, אבל אחרת, זה אומר שהאנושות מוכנה להיכנע ולהיכחד".

בקיצור, החדשות הטובות הן שעד 9 באב של 2029 אפשר יהיה לפתור את בעיות האקלים של כדור הארץ. החדשות הרעות הן שלא בטוח שנאהב את הפתרון הזה, או שבכלל נהיה פה כדי ליהנות ממנו. 

נס הנוסי

רובכם לא מכירים את משה נוסבאום אישית. מקצוען חד ומדויק, וגם איש נחמד ומצחיק. כעיתונאי צעיר, זה בדיוק מסוג האנשים שאתה רוצה בסביבה כדי לשאוב מהם השראה ופרספקטיבה.



אז ה-AI כנראה לא יחזיר את נוסי לחיי המערכת באותו אופן, אבל כן אל כלל הצופים. ובעיקר, שהטכנולוגיה בשימוש נכון הופכת למקור כוח אנושי ומרגש כל כך.