כשמדברים על מלחמה או שדה קרב, כולנו לרוב מדמיינים בראש מטוסים וטנקים ועוד כלים כבדים שבעיקר נראים טוב ויזואלית. אלא שבעשורים האחרונים שם המשחק בזירה האזרחית והצבאית הוא טכנולוגיה. יותר נכון, הבנת פעולות המכונה המתבססות אינטליגנציה ובינה מלאכותית, במטרה להבין מדוע פעלה המכונה (או הבינה המלאכותית) כפי שפעלה וכיצד אפשר לשפר את פעולותיה, כדי למנוע מצד אחד נזקים ומצד שני לשפר את יכולת קבלת ההחלטות שלה דרך מחקר ולמידה.

 צוותי מחקר ופיתוח כמו של רפאל בוחנים בשנים האחרונות את התחום, כשכל התקדמות במחקר מסייעת ומשפיעה רבות על פיתוחים ושימושים עתידיים בטכנולוגיות בינה מלאכותית. ככל שהחוקרים יתקדמו, כך תגדל החשיבות והרלוונטיות של תוצאותיו בהשלכה על שתי הזירות – הצבאית והאזרחית. הפיכת הטכנולוגיה לחלק מחיינו הפכה כל כך מובנת מאליה, עד כדי כך לא שמנו לב שהיא השתלטה עלינו והפכנו להיות תלויים בה. הדברים מתחדדים בשדה הקרב, שם אפשר לצפות בשיא הטכנולוגיה המתקדמת, שמאפשרות למכונות הקרב לעתים עצמאות מוחלטת במטרה להגיע לרמות דיוק שבן אנוש לעולם לא יגיע אליהן. מהצד השני, מאחר ומדובר בשדה קרב, עם נתונים שמשתנים כל הזמן, לא ניתן לתת עצמאות מוחלטת לבינה המלאכותית, וכאן נכנס האדם למעגל קבלת ההחלטות ( (man in the loop 

באדיבות רפאל

מערכות הלחימה מחייבות הכנסת אינטליגנציה מלאכותית או מערכות אוטונומיות, במטרה לייעל בצורה משמעותית את הפעולות, וכן גם להקל על המשתמש (החייל בשדה הקרב) בתפעול וקבלת החלטות. כך, למשל, בנושא מהירות התגובה: שום בן אנוש לא יכול להגיע למהירות וזריזות כמו מכונה, כאשר זה נוגע להגנה על אזרחים וחיילים. ולכן, פתרונות הבינה המלאכותית הפכו להיות חיוניים בשדה הקרב הבלתי שוויוני הנוכחי.

ואכן, הבינה המלאכותית הינה גורם מפתח בפיתוח מערכות ביטחוניות פורצות דרך, אך יחד עם זאת מאחר ומדובר בתחום א-סימטרי, נדרש מהמשתמש בשטח גם הבנה מדוע המכונה החליטה את מה שהחליטה. כאן נכנסת לתמונה דיסציפלינה חדשה ומרתקת- Explainable AI .

השאלה העולה מכך היא כיצד המערכות מסבירות את פעולותיהן. כיצד מערכת יכולה להבדיל בין טוב ורע, ואיך היא יכולה לדעת אם ההחלטה שהתקבלה נכונה או אמינה או הייתה הכרחית? אלה שאלות שכל אדם היה  שואל את עצמו לאחר מעשה, והכרחי שיעלו כאשר הוא מנתח את יכולת הקיום של המערכות האוטונומית.

השאיפה האנושית להבין את ההחלטות הוביל לצורך מוגבר בexplainable artificial intelligence  (בינה מלאכותית הניתנת להסברה) המוכרת בשמה המקוצר XAI, או למידת מכונה הניתנת להסברה. מדובר בבחינת פלטי מידע או פעולות אוטונומיות, כך שישנו צורך ממשי בקביעת הכדאיות של תוצאות המערכות.

חטיבות מחקרים ופיתוח ברחבי העולם, כולל בחברת רפאל הישראלית, חוקרות את נושא XAI, ובוחנות את השאלות הללו ואתגרים אחרים הקשורים לתחום זה. בין היתר, הניסיון לפצח את המורכבות של הבינה המלאכותית הניתנת להסברה בסיסו במלאכת איזון בין ביצועים ויכולת הסברה. כך, למשל, בזמן שבינה מלאכותית משפרת את דיוק המערכת, אותה מהירות פוחתת כאשר פעולות המערכות מוסברות, אך היא גוברת כשאר היא פועלת כקופסא שחורה.

בני האדם והחוקרים יכולים להבין טוב יותר מערכת המבוססת על כללים או מכונות מדור קודם, אך ככל שטכנולוגיה מתקדמת כך יתחדדו השאלות והניסיון להסביר את פעולות המכונות יהיה קשה יתר, כמו גם היכולת לשפוט את האמינות שלה. הדברים אמורים במיוחד כאשר טכניקות בינה מלאכותית כמו למידה עמוקה עמומות באופן טבעי.

החסרונות והתהיות הובילו את סוכנות מחקר לפרויקטים ביטחוניים של משרד ההגנה האמריקאי DARPA שדרג את תוכנית הבינה המלאכותית שלו במטרה לייצר XAI . המהלך יאפשר יותר שקיפות למפעיל האנושי, ללא פגיעה בביצועי הבינה המלאכותית. יתרה מכך, חוסר היכולת להבין את התוצאות רק יהפוך את הכל למאתגר יותר עבור המעורבים כדי לקבוע האם נכון או הכרחי להתערב בפעולה מסוימת של המכונה.

ההחלטות בשדה הקרב צריכות לעתים להתקבל תוך שניות. למערכת בינה מלאכותית שעוקבת אחרי האויב יש את היכולת לייצר פעולה נכונה למניעת סכנה, אך בד בבד החלטה שגויה תוביל לתוצאה הפוכה ומסכנת. האלגוריתמים המתקדמים של מערכת הבינה המלאכותית, יכולים לסרוק את האזור הנבחר ולספק באופן מהיר תמונה של החשודים המזוהים. אך כיצד יודע המפעיל אם ההחלטה שהתקבלה הגיוניות ונכונה, וכיצד היא התקבלה ועל סמך מה. האם היא התקבלה על פי מאפיינים ברורים ובולטים שאותו בשטח, והאם המלצת הפעולה שלה תהיה אמינה ותוביל בעצם לתוצאה הרצויה מצד המפעיל.

התרחיש שצוין, הוא רק אחד מני רבים שאותו בוחנים צוותי המחקר והפיתוח כמו אלו של רפאל. תוצאות המחקר ישפיעו במובהק על פיתוחים ורגולציות עתידיות של טכנולוגיות בינה מלאכותית.

Drone Dome: ללא מגע אדם

אחד הפיתוחים המובילים של רפאל היא מערכת ה-Drone Dome החדשנית, שנועדה לספק הגנה יעילה על מרחב אווירי מפני מל"טים עוינים (מיקרו וננו מל"טים) המשמשים גם ארגוני טרור לביצוע פיגועים אוויריים, איסוף מודיעין ופעולות מאיימות אחרות.

DRONE DOME. באדיבות רפאל

הכיסוי של  מערכת ה- Drone Dome  הוא של 360 מעלות ומאפשר לה לאתר, לעקוב ולנטרל מגוון רחב של מל"טים המוגדרים כאיום באזורים אסורים לטיס. זמן התגובה של המערכת מהיר ומצד שני היא מייצרת הפרעות בטיחות מינימליות לסביבה העירונית, ובטיחות מרבית למטוסים אזרחיים.  המערכת פועלת בתנאי מזג אוויר משתנים,  24 שעות ביממה. תחילה היא מזהה את האיום על ידי חיישנים מתקדמים, כאשר הנתונים משולבים ומקושרים והתרעה נשלחת למפעיל המל"ט העוין. המערכת יוזמת פעולת שיבוש אוטומטית, בהתאם לכללים שהוגדרו , או בפעולה ידנית. כמו כן, המערכת מסוגלת לנטרל איומים גם באמצעות קרן לייזר ייחודית.