קוראים

יום שני, 21 בדצמבר 2020

חוקי הרובוטיקה החדשים/יורם אורעד


ציור: הלל שלפין



לפני שנים רבות ניסח  אייזק אסימוב חוקי רובוטיקה שמטרתם לאפשר את פעולתם התקינה של רובוטים ומערכות אינטליגנציה מלאכותית ולהגן עלינו מסכנות אפשריות מהם. לאחרונה הוצעו ארבעה חוקים חדשים כדי לעשות התאמה לתקופתנו. האם הדבר יפטור אותנו מהסכנות האפשריות של הרובוטים והאינטליגנציה המלאכותית? ומה כדאי לעשות בהמשך?

 

רובוטים ומערכות אינטליגנציה מלאכותית (AI) הם חלק מהמציאות ומשמשים בתעשייה, ברפואה, במערכות בינה מלאכותית (כגון סירי), להפגת בדידותם של אנשים ועוד. כדי לאפשר את פעולתם התקינה ולהגן עלינו מפעולות לא רצויות או מסוכנות שהם עלולים לבצע ניסח בשנת 1942 אייזק אסימוב שלושה חוקים ומאוחר יותר הוסיף להם את חוק האפס. 

אלה הם שלושת חוקי הרובוטיקה המקוריים:


  1. לא יפגע רובוט לרעה בבן אדם, ולא יניח, בהמנעות מפעולה, שאדם ייפגע.
  2. רובוט חייב לציית לפקודותיו של אדם, כל עוד אינן סותרות את החוק הראשון.
  3. רובוט ידאג לשמור על קיומו ושלמותו, כל עוד הגנה זו אינה עומדת בסתירה לחוק הראשון או לחוק השני.

 

חוק האפס אומר: לא יפגע רובוט לרעה באנושות ולא יניח, בהמנעות מפעולה, שהאנושות תיפגע. החוק קודם לכל החוקים 1-3 גם יחד. ארבעת החוקים מבטיחים את שלום האנושות כולה, מעבר לשלומו של הפרט הבודד.

החוקים בנויים בצורה הדרגתית כך שאסור שחוק אחד יסתור את הקודם לו, שהוא תמיד חשוב יותר.

 

עקרונות רובוטיקה חדשים

פרופסור פרנק פסקוואלֵה (Frank Pasquale), מומחה לבינה מלאכותית, טוען שעקרונותיו של אסימוב, דורשים התאמה לימינו, בין היתר משום שלא תמיד חידושים והמצאות בתחום הרובוטיקה מועילים לאנושות. בחוקי הרובוטיקה של אסימוב החוקים מוטמעים ברובוטים עצמם. לעומת זאת, החוקים שמציע פסקוואלֵה מכוונים למתכנני ובוני הרובוטים ולמתווי מדיניות, ולא לרובוטים עצמם. אלה הם ארבעת החוקים החדשים שמציע פסקוואלֵה:



  1. חוק ראשון חדש: אינטליגנציה מלאכותית (AI) צריכה להשלים את המומחים ולא להחליפם. השימוש באוטומציה בתחומים שונים אמנם גובר במהירות אבל עבודות שכרוכה בהן בחירה צריכות להישאר בידי בני אדם. למשל, בהוראה ורפואה יש צורך להסביר ללקוחות את האפשרויות השונות ולא לתת להם תוצאה אחת ואחידה שתוחלט כטובה ביותר, על ידי ישות אוטומאטית.
  2. חוק שני חדש: מערכות רובוטיות ואינטליגנציה מלאכותית לא יזייפו אנושיוּת. סייעים אנושיים (כגון סירי) עלולים לשמש להונאת אנשים ולתמרוּן רגשות. אסור שמערכות כאלה יזייפו רגשות אנושיים. צריך להגדיר באופן קשיח עד כמה האינטראקציות האנושיות עם רובוטים יהיו בלתי מורגשות, חלקות, ללא תפרים (seamless) ועד כמה יהיה צורך לשמור על הבדל בין רובוטים לבין אנשים.
  3. חוק שלישי חדש: אסור שמערכות רובוטיות ואינטליגנציה מלאכותית, יגבירו את מירוץ החימוש. ההתפתחות הבלתי מבוקרת של מערכות נשק רובוטיות עלולה לצאת מכלל שליטה וסביר להניח שיתפתח מירוץ חימוש של מערכות אינטליגציה מלאכותית.
  4. חוק רביעי חדש: מערכות רובוטיות ואינטליגנציה מלאכותיות חייבות תמיד לציין את זהות יוצריהם, מפעיליהן ובעליהן. אלה חשובים להגברת האַחְרָיוּתִיּוּת (הנכונות לנטילת אחריות) ולהרתיע פעילות בלתי הולמת בשימוש ברובוטיקה ובאינטליגציה מלאכותית.

 

אז מה כדאי לעשות?

למרות שרובוטים ואינטליגנציה מלאכותית תורמים לחיינו המון, סכנותיהם עצומות. הם יצירי כפיהם של בני אדם ובני אדם הם המחליטים מה הם יעשו, לטוב או לרע. התאמות בדמות החוקים שהציע פרופסור פסקוואלֵה, והתאמות אחרות, עשויות למנוע נזקים ואף קטסטרופות בלי לוותר על היתרונות העצומים של הרובוטים והאינטליגנציה המלאכותית. כנראה שהתאמות שונות ותוספות שונות יתפתחו במרוצת הזמן וישתכללו בהתמדה כדי למנוע נזק אפשרי על ידיהם וכדי לנצלם טוב יותר. מן הסתם, ההתאמות האלה גם יתעדכנו בהתאם לצרכי החברה של התקופות המשתנות אך אין לדעת לאן יתפתחו ישויות טכנולוגיות שכאלה. יש הטוענים שבבוא הזמן הן ירכשו לעצמן תודעה,רצונות ואישיות משלהן. אם זה יקרה, הסכנה תהיה גדולה לאין ערוך מזו של רובוטים ומערכות אינטליגנציה מלאכותית שאין להם את אלה. לכן, ההתמודדות הנכונה ביותר לדעתי היא שילוב היכולות הטכנולוגיות שלהן בתוך האדם שמשמעותו מיזוג האדם עם המחשב. המיזוג הזה, בניגוד להפרדה בין האדם לישויות הטכנולוגיות, ייצור ישות אחת, שהאדם הוא בסיסה. כך תימנע התנגשות בין שני סוגי הישויות ותתאפשר התפתחות מיטיבה ומתמשכת של חברה המורכבת מישויות ממוזגות אלו, תוך שדרוג עצום של האדם, שיהיה בעצם אדם - מכונה.

 


2 comments:

  1. חוק 1 מיותר ולא נכון. אם האבחון של המכונה מדויק יותר, חייבים לקבל אותו.
    חוק 2 הגיוני, וגם נתמך במערכת החוקים הבסיסית מכיוון שאיתור מקרה כזה יפגע באדם, לא יוכל רובוט לבצעו. בקיצור, הרחבה של חוק 1 המקורי.
    חוק 3 נו באמת, זה חוק 0 המקורי. מירוץ החימוש פוגע באנושות.
    חוק 4 שוב, כמו חוק 2 המקורי, אם אדם פוקד על רובות לומר לו את הפרטים, חייב הרובוט לתת את הפרטים. ניתן לעשות מקרה פרטי לחוק שבו הרובוט חייב לספק פרטים אלו גם ללא בקשה, אבל זה מיותר. לא תרצה שכל מלצר רובוטי ימסור לך את הדגם והייצרן בכל פנייה.
    בקיצור, אין חידוש, והחוקים המקוריים עדיפים בהרבה.

    השבמחק
    תשובות
    1. שלום ירון

      הצגתי רק את דעתו של פרופסור פסקוואלה. אני מסכים אתך שאין בהם מהפכה, בניגוד לחוקים הנהדרים של אסימוב אבל יחד עם זאת הם מכוונים לחשש שמביע פסקוואלה באשר לאפשרות שרובוטים יחליפו את בני האדם בדרך זו או אחרת ומחדדים את חוקי הרובוטיקה.

      מחק

מאיימים על כדור הארץ/יורם אורעד

  החללית דארט פוגעת בדימורפוֹס. קרדיט: נאס"א/ג'ונס הופקינס APL גופים הנעים בחלל עלולים לסכן את האנושות עד כדי הכחדתה, אם יפגעו בכדו...