גברים - ומדינות - במלחמה
נפוליאון יכול היה ללמוד מהעבר. ציור מאת אדולף נורתן/וויקיפדיה

זו קלישאה שאי ידיעת ההיסטוריה גורמת לחזור עליה. כפי שציינו הרבה אנשים, הדבר היחיד שאנחנו לומדים מההיסטוריה הוא שאנחנו רק לעתים רחוקות לומדים משהו מההיסטוריה. אנשים עוסקים מלחמות קרקע באסיה שוב ושוב. הם גם חוזרים על אותן טעויות היכרויות, שוב ושוב. אבל למה זה קורה? והאם הטכנולוגיה תשים לזה סוף?

נושא אחד הוא שכחה ו"קוצר ראיה”: איננו רואים כיצד אירועי העבר רלוונטיים לאלו הנוכחיים, משקיפים על הדפוס המתגלגל. נפוליאון היה צריך לשים לב לקווי הדמיון בין צעדתו למוסקבה לבין המלך השוודי הניסיון הכושל של קרל ה-XNUMX לעשות את אותו הדבר בערך מאה לפניו.

אנחנו גם גרוע בלמידה כאשר דברים משתבשים. במקום לקבוע מדוע החלטה הייתה שגויה וכיצד להימנע מכך שאי פעם יקרה שוב, אנו מנסים לעתים קרובות להתעלם מהתפנית המביכה של האירועים. זה אומר שבפעם הבאה שמצב דומה מתרחש, אנחנו לא רואים את הדמיון - וחוזרים על הטעות.

שניהם חושפים בעיות במידע. במקרה הראשון, איננו מצליחים לזכור מידע אישי או היסטורי. בשנייה, איננו מצליחים לקודד מידע כאשר הוא זמין.


גרפיקת מנוי פנימית


עם זאת, אנו גם עושים טעויות כאשר איננו יכולים להסיק ביעילות מה עומד לקרות. אולי המצב מורכב מדי או זמן רב מדי מכדי לחשוב עליו. או שאנחנו מוטים לפרש לא נכון את מה שקורה.

כוחה המעצבן של הטכנולוגיה

אבל בטוח שהטכנולוגיה יכולה לעזור לנו? כעת אנו יכולים לאחסן מידע מחוץ למוח שלנו, ולהשתמש במחשבים כדי לאחזר אותו. זה אמור להפוך את הלמידה והזיכרון לקלה, נכון?

אחסון מידע שימושי כאשר ניתן לאחזר אותו היטב. אבל לזכור זה לא אותו דבר כמו אחזור קובץ ממיקום או תאריך ידועים. זכירה כרוכה באיתור קווי דמיון והבאת דברים לתודעה.

גם בינה מלאכותית (AI) צריכה להיות מסוגלת להביא באופן ספונטני קווי דמיון למוח שלנו - לעתים קרובות קווי דמיון לא רצויים. אבל אם הוא טוב בלהבחין בקווי דמיון אפשריים (אחרי הכל, הוא יכול לחפש בכל האינטרנט ובכל הנתונים האישיים שלנו) הוא גם יבחין לעתים קרובות בקווים שקריים.

עבור דייטים כושלים, זה עשוי לציין שכולם היו מעורבים בארוחת ערב. אבל אף פעם לא הארוחה הייתה הבעיה. וזה היה צירוף מקרים גמור שהיו צבעונים על השולחן - אין סיבה להימנע מהם. לעתים קרובות אנו חוזרים על טעויות היכרויות. 

זה אומר שהוא יזהיר אותנו מדברים שלא אכפת לנו מהם, אולי בצורה מעצבנת. כוונון הרגישות שלו מטה פירושה הגדלת הסיכון לא לקבל אזהרה בעת הצורך.

זוהי בעיה מהותית והיא חלה באותה מידה על כל יועץ: היועץ הזהיר יבכה זאב לעתים קרובות מדי, היועץ האופטימי יחמיץ סיכונים.

יועץ טוב הוא מישהו שאנחנו סומכים עליו. יש להם בערך אותה רמת זהירות כמונו, ואנחנו יודעים שהם יודעים מה אנחנו רוצים. קשה למצוא את זה אצל יועץ אנושי, ועוד יותר מזה בבינה מלאכותית.

איפה הטכנולוגיה עוצרת טעויות? הוכחת אידיוטים עובדת. מכונות חיתוך דורשות ממך להחזיק את הכפתורים, ולהרחיק את הידיים מהלהבים. "מתג של אדם מת" עוצר מכונה אם המפעיל הופך מחוסר יכולת.

תנורי מיקרוגל מכבים את הקרינה כאשר הדלת נפתחת. כדי לשגר טילים, שני אנשים צריכים לסובב מפתחות בו-זמנית על פני החדר. כאן, עיצוב מוקפד מקשה על טעויות. אבל לא אכפת לנו מספיק ממצבים פחות חשובים, מה שהופך את העיצוב שם להרבה פחות חסין לאדיוטים.

כאשר הטכנולוגיה עובדת טוב, לעתים קרובות אנו סומכים עליה יותר מדי. לטייסי חברות תעופה יש היום פחות שעות טיסה אמיתיות מאשר בעבר בגלל היעילות המדהימה של מערכות הטייס האוטומטי. אלו חדשות רעות כאשר הטייס האוטומטי נכשל, ולטייס יש פחות ניסיון להמשיך ולתקן את המצב.

הראשון מתוך א זן חדש של פלטפורמת נפט (Sleipnir A) טבעה כי מהנדסים סמכו על חישוב התוכנה של הכוחות הפועלים עליה. המודל היה שגוי, אבל הוא הציג את התוצאות בצורה כל כך משכנעת שהן נראו אמינות.

חלק גדול מהטכנולוגיה שלנו אמינה להפליא. לדוגמה, איננו שמים לב כיצד חבילות נתונים אבודות באינטרנט נמצאות כל הזמן מאחורי הקלעים, כיצד קודי תיקון שגיאות מסירים רעש או כיצד נתיכים ויתירות הופכים את המכשירים לבטוחים.

אבל כשאנחנו מערימים רמה אחר רמת מורכבות, זה נראה מאוד לא אמין. אנחנו כן שמים לב מתי סרטון הזום מתעכב, תוכנית הבינה המלאכותית עונה לא נכון או שהמחשב קורס. עם זאת, שאל כל מי שהשתמש במחשב או במכונית לפני 50 שנה איך הם עבדו בפועל, ותשים לב שהם היו פחות מסוגלים ופחות אמינים.

אנו הופכים את הטכנולוגיה למורכבת יותר עד שהיא הופכת להיות מעצבנת או לא בטוחה מדי לשימוש. ככל שהחלקים נעשים טובים ואמינים יותר, לעתים קרובות אנו בוחרים להוסיף תכונות חדשות ומרגשות ושימושיות במקום להישאר עם מה שעובד. זה בסופו של דבר הופך את הטכנולוגיה לפחות אמינה ממה שהיא יכולה להיות.

יעשו טעויות

זו גם הסיבה שבינה מלאכותית היא חרב פיפיות למניעת טעויות. אוטומציה לעתים קרובות הופכת דברים לבטוחים ויעילים יותר כשהיא עובדת, אבל כשהיא נכשלת היא הופכת את הצרות להרבה יותר גדולות. אוטונומיה פירושה שתוכנה חכמה יכולה להשלים את החשיבה שלנו ולהוריד אותנו, אבל כשהיא לא חושבת כמו שאנחנו רוצים, היא עלולה להתנהג בצורה לא נכונה.

ככל שזה מורכב יותר, כך הטעויות יכולות להיות פנטסטיות יותר. כל מי שהתמודד עם חוקרים אינטליגנטיים ביותר יודע עד כמה הם יכולים לבלבל דברים עם כושר המצאה גדול כשהשכל הישר שלהם כושל אותם - ול-AI יש מעט מאוד שכל ישר אנושי.

זו גם סיבה עמוקה לדאוג לגבי AI המנחה את קבלת ההחלטות: הם עושים סוגים חדשים של טעויות. אנו בני האדם מכירים טעויות אנושיות, כלומר אנחנו יכולים להיזהר מהן. אבל מכונות חכמות יכולות לעשות טעויות שלא יכולנו לדמיין.

יתרה מכך, מערכות AI מתוכנתות ומאומנות על ידי בני אדם. ויש המון דוגמאות למערכות כאלה להיות מוטה ואפילו קנאי. הם מחקים את ההטיות וחוזרים על הטעויות מהעולם האנושי, גם כשהאנשים המעורבים מנסים במפורש להימנע מהן.

בסופו של דבר, טעויות ימשיכו לקרות. ישנן סיבות בסיסיות מדוע אנו טועים לגבי העולם, מדוע איננו זוכרים את כל מה שאנו צריכים, ומדוע הטכנולוגיה שלנו אינה יכולה לעזור לנו באופן מושלם להימנע מצרות.

אבל אנחנו יכולים לפעול לצמצום ההשלכות של טעויות. כפתור הביטול והשמירה האוטומטית שמרו אינספור מסמכים במחשבים שלנו. האנדרטה בלונדון, אבני צונאמי ביפן ואנדרטאות אחרות פועלות להזכיר לנו סיכונים מסוימים. שיטות עיצוב טובות הופכות את חיינו לבטוחים יותר.

בסופו של דבר, אפשר ללמוד משהו מההיסטוריה. המטרה שלנו צריכה להיות לשרוד וללמוד מהטעויות שלנו, לא למנוע מהן להתרחש אי פעם. הטכנולוגיה יכולה לעזור לנו בזה, אבל אנחנו צריכים לחשוב היטב מה אנחנו בעצם רוצים ממנה - ולעצב בהתאם.

על המחבר

אנדרס סנדברג, עמית מחקר ג'יימס מרטין, Future of Humanity Institute ובית הספר אוקספורד מרטין, אוניברסיטת אוקספורד

מאמר זה פורסם מחדש מתוך שיחה תחת רישיון Creative Commons. קרא את ה מאמר מקורי.