המומחים נפגשו בז'נבה, אך לא ניתן היה להגיע להסכמה: ארצות הברית ורוסיה חסמו את כל העבודות. אולי זו הפעם היחידה בה הגמוניות עובדות בצורה כה הרמונית.
פגישות מומחים במתכונת האמנה על נשק בלתי אנושי הסתיימו בז'נבה כדי להכריע בגורלם של מה שמכונה רובוטים קרביים - כלי נשק אוטונומיים המשתמשים בבינה מלאכותית כדי להביס מטרות. עם זאת, לא ניתן היה להגיע להסכמות. ארצות הברית, רוסיה, דרום קוריאה, ישראל ואוסטרליה היו בין מדינות המיעוט שהצליחו לחסום את הסנטימנט לקראת איסור מוחלט על רובוטים רוצחים.
לכן, למרות שאין עדיין נשק אוטונומי עובד בעולם, הטכנולוגיה נותרה, כביכול, אנושית - ניתן לפתח אותה ולחקור אותה. מעניין שארצות הברית ורוסיה, על פי מכון המחקר לשלום בשטוקהולם (SIPRI), עומדות בראש הרשימה של יצואניות הנשק הגדולות ביותר. דרום קוריאה, ישראל ואוסטרליה גם לא נופלות לפיגור בדירוג זה - הן בין 20 השחקניות הגדולות בשוק.
ולמרות שסין (היצואנית החמישית של כלי נשק בעולם, חברה קבועה במועצת הביטחון של האו ם דוגלת באיסור על רובוטים קרביים, היא לא הצליחה לצבוט את הכף לכיוונה במהלך הפגישות. כיום 26 מדינות תומכות בגלוי ב איסור על שימוש בבינה מלאכותית במלחמה. אחרים נרתעים מעמדה ברורה) צרפת וגרמניה (יצואנית הנשק השלישית והרביעית) מציעות לחתום על מסמך שיאגד את קדימות האדם על בינה מלאכותית, אך סביר יותר להניח שהם בצד של אלה שרוצים לפתח כלי רכב קרב אוטונומיים.
"זה בהחלט מאכזב שקבוצה קטנה של ענקיות צבאיות יכולה לעכב את רצון הרוב", הגיבה מרי ורם, רכזת הקמפיין לעצור את הרובוטים הרוצחים, על תוצאות המפגשים בז'נבה.
ואכן, המצב נראה כמו מזימה של אילי מונופול חמושים, בהתחשב בכך שבדרך כלל ארצות הברית ורוסיה אינן יכולות להגיע לפחות לפשרה כלשהי בנושאים חשובים. קח את זו הסורית: וושינגטון ומוסקבה חסמו הדדית את החלטותיה של זו לאחר שהשתמשו בנשק כימי בסוריה באביב הזה. אגפים מחנקים וחומרים רעילים אחרים למטרות צבאיות, אגב, נאסרו בעבר על ידי האמנה על נשק בלתי אנושי.
הפגישה הבאה על גורל הרובוטים הרוצחים תתקיים בז'נבה בנובמבר.
מדוע הם רוצים לאסור נשק אוטונומי
התומכים באיסור לוחמת הרובוטים מתעקשים ששדה הקרב אינו מקום לבינה מלאכותית. לדעתם, טכנולוגיות כאלה מהוות איום עצום. לפחות, כיום לא ברור כיצד המכונה תבדיל בין לוחמים (כאלה שמעורבים ישירות בלחימה) לבין לא לוחמים (אנשי שירות צבא שיכולים להשתמש רק בכלי נשק להגנה עצמית) ואזרחים בכלל. קיימת אפשרות שהעבודה תהרוג את הפצועים ואת מי שנכנעים, דבר האסור על פי כללי הלחימה הנוכחיים.
מה מונע מהעבודה להפריע לכל הצדדים לסכסוך, אפילו לבעלי נשק כזה? אלמנטים של בינה מלאכותית כבר משתמשים בהצלחה בציוד צבאי, טילים; רובוטים נמשכים לסיור, אך המילה האחרונה עדיין מוטלת על בני האדם. כלי נשק אוטונומיים לא יצייתו לפקודות המפקדים - לכן הם אוטונומיים. זו הסיבה שגנרלים צבאיים ממדינות שונות מפקפקים בנוגע להכנסת מכונות לשורות הסגל.
ועוד שאלה פתוחה היא הטרור הבינלאומי. טכנולוגיית נשק אוטונומית יכולה ליפול לידיים הלא נכונות, ובסופו של דבר ניתן לפרוץ אותה. לפני שנה אמר נשיא רוסיה ולדימיר פוטין כי שליט העולם יהיה זה שיהפוך למוביל בפיתוח הבינה המלאכותית.במקרה של כלי נשק אוטונומיים, מי שיקבל גישה לטכנולוגיות כאלה יהפוך לשליט העולם. ולשם כך, למעשה, אתם זקוקים רק למחשב ולמשתמט שיעברו במערכות האבטחה. הפנטגון, אגב, נפרץ לא פעם. כתוצאה מכך, איש אינו יכול להבטיח כי נשק אוטונומי יישאר בלתי ניתן לפגיעה.
לא ברור מי יהיה האחראי המשפטי אם יבוצע פשע מלחמה כתוצאה מתפקוד מערכת הנשק האוטונומית. "המהנדס, המתכנת, היצרן או המפקד שהשתמש בכלי הנשק? אם לא ניתן להגדיר אחריות כנדרש על ידי המשפט ההומניטארי הבינלאומי, האם ניתן להכיר בפריסת מערכות כאלה כחוקיות או מוצדקות אתית? ", מציין הוועד הבינלאומי של הצלב האדום.
מעניין שמדענים דגלו גם באיסור על רובוטים קרביים. בחודש יולי השנה, יותר מאלפיים מדענים, ובמיוחד היוצר של טסלה ו- SpaceX אילון מאסק ומייסדי DeepMind, חתמו על מסמך לפיו לא יפתחו נשק אוטונומי קטלני. גוגל עשתה את אותו הדבר. ענקית הטכנולוגיה ויתרה על העבודה על פרויקט Maven של הפנטגון. ובשנת 2017 מספר מדענים כבר קראו לאו ם לאסור על יצירת רובוטים רוצחים.
אגב, נושא הבינה המלאכותית במלחמה הופיע על סדר היום של האומות המאוחדות בסוף 2013, אך כמעט שום דבר לא השתנה מאז. רק השנה החלו פגישות מומחים במתכונת האמנה בנושא נשק לא אנושי. כלומר, לקח יותר מארבע שנים להגיע למישור מעשי כלשהו פחות או יותר.
מדוע הם לא רוצים לאסור נשק אוטונומי
לא משנה עד כמה זה נשמע נדוש, מרוץ החימוש הוא הסיבה העיקרית לכך שהם לא רוצים לאסור על רובוטים רוצחים. פוטין צודק: מי שיקבל נשק אוטונומי ראשון ישלוט בעולם. באופן רשמי, הסיבה הזו מושמעת.
הטענה העיקרית של מתנגדי האיסור היא חוסר האפשרות להפריד בינה מלאכותית אזרחית מהצבא. כמו, לא נאסור על סכינים למטבח רק בגלל שמחבלים יכולים להשתמש בהם. למעשה, אי אפשר להפריד בין פיתוח אזרחי של בינה מלאכותית לבין הצבא. אך כעת אנו מדברים על איסור נשק זה, אשר יוכל לקבוע ולתקוף יעדים באופן עצמאי. זה יכול להיות פרויקט Maven, שעליו עובד משרד ההגנה האמריקני בשיתוף עם בוז אלן המילטון (גוגל סירבה לחוזה).
מפתחי Maven רוצים ללמד מזל"טים לנתח תמונות, בייחוד מלוויינים - ולזהות מטרות להתקפה ". הפנטגון החל לעבוד על הפרויקט כבר באפריל 2017 וקיווה להשיג את האלגוריתמים הראשונים של העבודה עד סוף השנה. אך באמצעות הסימון של עובדי גוגל, הפיתוח התעכב. נכון ליוני השנה, על פי Gizmodo, המערכת יכלה להבחין בין חפצים אלמנטריים - מכוניות, אנשים, אך התברר שהיא חסרת משמעות לחלוטין במצבים קשים. אם בכל זאת יאומץ האיסור על כלי נשק אוטונומיים ברמת האו"ם, יהיה עלינו לגרש את הפרויקט, בעוד שהפנטגון טוען כי התפתחותם יכולה להציל חיים, מכיוון שניתן לתכנת אותו לעבוד בצורה מדויקת ואמינה יותר בהשוואה לאנשים.
"אתה צריך להבין שאנחנו מדברים על טכנולוגיה, שאין בה דוגמאות שיעבדו. הרעיון של מערכות כאלה הוא עדיין שטחי מאוד", ציין ערב הפגישה בז'נבה במשרד החוץ הרוסי. - לדעתנו, ניתן להחיל את המשפט הבינלאומי, בפרט המגזר ההומניטרי, על נשק אוטונומי. הם לא זקוקים למודרניזציה או התאמה למערכות שעדיין לא קיימות."
ובכן, ועוד סיבה אמיתית, אך לא מושמעת, היא כסף. כיום מוערך שוק טכנולוגיות הבינה המלאכותית הצבאית ביותר משישה מיליארד דולר. אך עד שנת 2025 הנתון ישולש - לכמעט 19 מיליארד, על פי אנליסטים של חברת MarketsandMarkets האמריקאית.עבור יצואניות הנשק הגדולות ביותר, זו מוטיבציה טובה לחסום כל מגבלה על פיתוח רובוטים רוצחים.
אי אפשר לעצור את ההתקדמות
תומכי האיסור על נשק אוטונומי מציינים כי הטכנולוגיה מתפתחת במהירות רבה ובינה מלאכותית תהפוך בסופו של דבר לכלי נשק - עניין של זמן. יש היגיון בדבריהם. בינה מלאכותית היא חלק בלתי נפרד מהמהפכה המדעית והטכנולוגית הרביעית, הנמשכת כעת. יש לזכור כי ההתקדמות הטכנית קשורה בצורה כזו או אחרת לפעולות צבאיות. המהפכה המדעית והטכנולוגית השלישית נמשכה עד אמצע שנות ה -50 של המאה העשרים, כלומר שיאה נפל בתקופת מלחמת העולם השנייה.
בשנת 1949 אימצה ז'נבה את האמנה להגנת אזרחים בזמן מלחמה. בתקופה שלאחר המלחמה הם גם השלימו את אמנת האג הרביעית משנת 1907 שקבעה את הכללים לניהול מלחמה. כלומר, זוועות מלחמת העולם השנייה הפכו לזרז לתהליך זה. אז מגיני זכויות אדם לא רוצים לחכות למלחמת העולם השלישית כדי להגן על האנושות מפני נשק אוטונומי. לכן ההכרעה בגורלם של הרובוטים הרוצחים נחוצה כעת, הם מתעקשים.
על פי מומחי ארגון Human Rights Watch, השימוש ברובוטים קרביים סותר את הצהרת מרטנס - ההקדמה לאמנת האג משנת 1899 על חוקי מכס המלחמה. במילים אחרות, רובוטים רוצחים מפרים את חוקי האנושות ואת דרישות התודעה הציבורית (העמדה אושרה באמנת האג הרביעית).
"עלינו לעבוד יחד בכדי להטיל איסור מונע על מערכות נשק כאלה לפני שהן יתפשטו ברחבי העולם", אמרה בוני דוהרטי, חוקרת בכירה במחלקת הנשק ב- Human Rights Watch.
ובכן, זה לא הצליח לאסור הפעם רובוטים רוצחים. כצפוי, גם הפגישות בנובמבר יהיו חסרות תועלת. נכון, כמעט כל המדינות מסכימות - לא ניתן לאפשר לטכנולוגיה לזרום בכוח המשיכה ורובוטים קרב זקוקים למנוף עצור שכזה. אך עדיין לא ברור אם האנושות תספיק למשוך את זה כאשר יעלה הצורך.