כל מי שעבר אי פעם ביקורת דרכונים בנמל תעופה מכיר את ההליך שבו עומדים מול שוטר שמסתכל על הדרכון שלנו, מסתכל על הפרצוף שלנו - ובסופו של דבר, בדרך כלל, מרשה לנו להיכנס. מדובר בהליך ביטחוני שנועד לבלום מהגרים לא חוקיים, הברחה או אפילו פשעים חמורים. אבל לטענת הסטארטאפ הישראלי רבילנס (Revealense), הפקחים לא באמת יכולים לדעת ב-100% מי אמין ומי לא, וגם תשאול ביטחוני כמו זה של אל על לא יכול לספק את מלא הביטחון. במקום זה, החברה מציעה את הטכנולוגיה שלה, שלטענתה יכולה לסייע לגופי ביטחון לזהות מראש איומים כאלו, לחסוך זמן יקר ולמנוע בעיות ביטחוניות.

למעשה, ברבילנס טוענים שהם יכולים לזהות פשע עוד לפני שהוא קרה.

עוד ב-N12 כלכלה:

• אמברגו נשק? הבריטים חתכו את היצוא הביטחוני לישראל
• שנתיים להקמת קרן העושר של ישראל: כמה באמת נצבר בה?
• פרו-פלסטינים פרצו למפעל חברת-בת של אלביט בבריטניה

אחרי שפעלה בשנים האחרונות ללא חשיפה, רבילנס חושפת היום (שלישי) לראשונה את הטכנולוגיה שלה, שמספקת ויזואליזציה של חתימה מנטלית אנושית אישית וייחודית לכל אדם. לפי החברה, החתימה הזו מאפשרת לאבחן ולנתח את התגובות של האדם במהלך שיחה, ואפילו רק מצפייה בו, בכל סיטואציה. האבחון הזה נועד לספק חיזוי, זיהוי ואימות כוונות - בין שתוכננו מראש או שהן ספונטניות - מה שבמקרים מסוימים מספק הגנה מצילת חיים.

ביקורת דרכונים בנתב"ג, ארכיון (צילום: עזרי עמרם, חדשות 2)
ביקורת דרכונים בנתב"ג (ארכיון) | צילום: עזרי עמרם, חדשות 2

רבילנס נוסדה ב-2021 בידי המנכ"ל דב דונין, שגיבש סביבו צוות של מומחים מתחומים כמו פסיכולוגיה ונוירופסיכולוגיה, מתמטיקה, בינה מלאכותית (AI), ראייה ממוחשבת ורשתות נירונים. המערכת שפיתחה החברה, שמכונה אילומינייטור (illuminator) מנתחת התנהגות של אנשים שמצולמים בווידאו (בין שבשידור חי או משידור מוקלט) בעזרת בינה מלאכותית. החברה ממומנת מהון עצמי מאז הקמתה (בוטסטראפ).

"אנחנו עובדים עם שירותי ביטחון"

לטענת רבילנס, אילומינייטור היא המערכת הראשונה שיודעת לזהות את הסיטואציה שהיא צופה בה - האם מדובר למשל בראיון עבודה, בדיקת אמינות, תחקור גורם עוין או אבחון מצב נפשי. על בסיס הזיהוי הזה, אילומינייטור מפעילה את האלגוריתמים שינתחו את התגובות של האדם הנבדק בהתאם לכל סיטואציה וסיטואציה.

המערכת מנתחת בזמן אמת שיחות ותוכן שהוקלטו בווידיאו בעזרת מצלמת מחשב סטנדרטית. לטענת רבלינס, המערכת שלה היא מסוגלת לזהות למשל את רמות הלחץ שבו שרוי הדובר, ומאמתת את המסקנה שהגיעה אליה מול מספר פרמטרים בזמן אמת. היכולת הזו מאפשרת לה לאבחן מצבים כמו לחץ רגשי, טריגרים פסיכולוגיים, תגובות שמושפעות מתוכן השיחה והקשרה, אמירות של שקר או אמת וניסיונות הטעיה.

חקירות מחבלי נוח'בה
חקירות מחבלי נוח'בה

ברבילנס טוענים שהמערכת שלהם יכולה לסייע בזיהוי מועמדים בעייתיים לקבלה לעבודה, או לתחקר אנשים שמתכננים לבצע בקרוב פשע ואפילו פיגוע. "אנחנו לא יכולים לפרט אבל אנחנו עובדים עם שירותי ביטחון שונים במגוון נושאים", אומר מייסד ומנכ"ל החברה דונין. "המערכת יודעת לזהות את הקונטקסט שבו נעשתה השיחה ולהבין גם את ההקשר התרבותי - וזה חשוב כדי שהיא תוכל לפעול לא רק בישראל אלא בכל העולם".

"המערכת יודעת לזהות מתי המרואיין פורק מתח, אוגר משהו שיושב לו על הלב, מה הרגע המדויק שבו הוא מדבר על משהו שחשוב לו ומתי הוא מנסה להסתיר משהו", מרחיב סמנכ"ל המוצר של החברה (CPO) עמית כהן, שטוען כי המערכת של רבילנס יכולה לסייע לגופי ביטחון בסינון וניתוח ראיונות מורכבים: "לגופים שפוגשים אלפי אנשים ביום, כמו בנמל תעופה, שאלון קצר בעזרת המערכת שלנו יכול לבצע סינון מהיר ומדויק של גורמים בעיתיים".

לזהות חשש לפוסט-טראומה

ברבילנס מייעדים את המערכת שלהם גם לסיוע בטיפול פסיכולוגי וזיהוי מצבי חירום, על רקע הפגיעה הנפשית שהסבה המלחמה הנוכחית. "אנחנו עומדים בפני גל גדול של אנשים שחווים תסמיני פוסט טראומה משדה הקרב", אומר דונין. "זה משהו שמערכת הבריאות צריכה כבר עכשיו להתמודד איתו. יש חלון קטן מאוד שבו אם מזהים את מי שעלולים לחוות תסמונת פוסט טראומה, אפשר לטפל בהם בצורה טובה ומועילה יותר. המערכת שלנו יכולה לזהות את האנשים הללו, לחסוך זמן יקר ולהציל אותם".

לטענת רבילנס, החברה כבר עובדת עם מומחים רפואיים כדי להטמיע את המערכות שלה בגופים שתפקידם לזהות את מי שמפתחים תסמיני פוסט טראומה ולשפר את יעילות הזיהוי.

פעילות כוחות צה"ל ברצועה (צילום: דובר צה"ל)
חיילי צה"ל ברצועת עזה (ארכיון, למצולמים אין קשר לכתבה) | צילום: דובר צה"ל

בשנה האחרונה זיהו בחברה תחום נוסף שהמערכת שלהם יכולה להיות רלוונטית בו: זיהוי סרטוני Deepfake - סרטונים שנוצרו בסיוע בינה מלאכותית ומתיימרים להציג סיטואציות שלא באמת התרחשו, לרוב בכיכובם של אנשים אמיתיים ומוכרים. לטענת רבילנס, משום שהמערכת שלה יודעת לזהות את החתימה האישית של המרואיין היא גם יודעת לזהות אם האדם שהיא צופה בו אמיתי או שזויף בעזרת בינה מלאכותית.

"אנחנו מוצפים בבקשות לזהות סרטונים שזויפו", אומר כהן. "פנו אלינו לאחרונה כדי לבדוק סרטון שבו קייט מידלטון סיפרה שחלתה בסרטן. ניתוח של הסרטון הספציפי גילה שהוא מזויף חלקית - מה שאנחנו מכנים הייבריד - זה אומר שיש בו חלקים אמיתיים וחלקים אחרים שבהם מדובר ב-AI. אנחנו יכולים לזהות אם סרטון עבר מניפולציה".