סכנה של ai 7 11
בינה מלאכותית לא צפויה לשעבד את האנושות, אבל היא עלולה להשתלט על היבטים רבים של חיינו. elenabs/iStock דרך Getty Images

העלייה של ChatGPT ומערכות בינה מלאכותית דומות לוותה בחדות עלייה בחרדה לגבי AI. במהלך החודשים האחרונים, מנהלים וחוקרי בטיחות בינה מלאכותית הציעו תחזיות, שכונו "P(דום)", על ההסתברות שבינה מלאכותית תביא לאסון בקנה מידה גדול.

הדאגות הגיעו לשיא במאי 2023 כאשר ארגון המחקר וההסברה ללא מטרות רווח המרכז לבטיחות בינה מלאכותית יצא לאור הצהרה של משפט אחד: "הפחתת סכנת ההכחדה מבינה מלאכותית צריכה להיות בראש סדר העדיפויות העולמי לצד סיכונים אחרים בקנה מידה חברתי, כמו מגפות ומלחמה גרעינית." ההצהרה נחתמה על ידי שחקנים מרכזיים רבים בתחום, כולל מנהיגי OpenAI, Google ו-Anthropic, כמו גם שניים ממה שמכונה "הסנדקים" של AI: ג'פרי הינטון ו יושע בנגיו.

אפשר לשאול איך אמורים להתנהל פחדים קיומיים כאלה. תרחיש מפורסם אחד הוא "מקסם מהדק נייר"ניסוי מחשבתי שניסח הפילוסוף של אוקספורד ניק בסטרום. הרעיון הוא שמערכת בינה מלאכותית שתפקידה לייצר כמה שיותר מהדקי נייר עשויה להגיע לארכים יוצאי דופן כדי למצוא חומרי גלם, כמו הרס מפעלים וגרימת תאונות דרכים.

A שונות עתירת משאבים פחות יש לו בינה מלאכותית שתפקידה להשיג הזמנה למסעדה פופולרית שמכבה רשתות סלולריות ורמזורים כדי למנוע מפטרונים אחרים לקבל שולחן.


גרפיקת מנוי פנימית


ציוד משרדי או ארוחת ערב, הרעיון הבסיסי זהה: בינה מלאכותית הופכת במהירות לאינטליגנציה של חייזרים, טובה בהשגת מטרות אך מסוכנת כי היא לא בהכרח תואמת את ערכי המוסר של יוצריה. ובגרסה הקיצונית ביותר שלו, הטיעון הזה הופך לחרדות מפורשות לגבי AIs לשעבד או להרוס את המין האנושי.

בינה מלאכותית לייצור מהדקים משתוללת היא גרסה אחת של תרחיש אפוקליפסת הבינה המלאכותית.

 

פגיעה ממשית

בשנים האחרונות, הקולגות שלי ואני ב המרכז לאתיקה יישומית של UMass בוסטון חוקרים את ההשפעה של עיסוק ב-AI על הבנתם של אנשים את עצמם, ואני מאמין שהחרדות הקטסטרופליות הללו הן מפוצץ ומופנה לא נכון.

כן, היכולת של בינה מלאכותית ליצור וידאו ואודיו מזויפים עמוקים משכנעים היא מפחידה, ואנשים עם כוונה רעה יכולים לנצל אותה לרעה. למעשה, זה כבר קורה: פעילים רוסים כנראה ניסו להביך את מבקר הקרמלין ביל ברוודר על ידי לכידתו בשיחה עם אווטאר של נשיא אוקראינה לשעבר פטרו פורושנקו. פושעי סייבר השתמשו בשיבוט קולי בינה מלאכותית למגוון פשעים - מ שוד בהייטק ל הונאות רגילות.

מערכות קבלת החלטות בינה מלאכותית כי להציע אישור הלוואה והמלצות לעבודה נושאים בסיכון של הטיה אלגוריתמית, שכן נתוני האימון ומודלים של החלטות שהם פועלים עליהם משקפים דעות קדומות חברתיות ארוכות שנים.

אלו בעיות גדולות, והן דורשות את תשומת הלב של קובעי המדיניות. אבל הם קיימים כבר זמן מה, והם בקושי קטקליזמים.

לא באותה ליגה

ההצהרה של המרכז לבטיחות בינה מלאכותית שילבה את הבינה המלאכותית עם מגיפות ונשק גרעיני כסיכון גדול לציוויליזציה. יש בעיות עם ההשוואה הזו. COVID-19 הביא כמעט 7 מיליון מקרי מוות ברחבי העולם, הביא על א משבר מסיבי ומתמשך בבריאות הנפש ויצר אתגרים כלכליים, כולל מחסור כרוני בשרשרת האספקה ​​ואינפלציה בורחת.

נשק גרעיני כנראה נהרג יותר 200,000 אנשים בהירושימה ובנגסאקי ב-1945, גבו חיים רבים יותר מסרטן בשנים שלאחר מכן, יצרו עשרות שנים של חרדה עמוקה במהלך המלחמה הקרה והביאו את העולם לסף השמדה במהלך משבר הטילים בקובה ב-1962. שינה את החישובים של מנהיגים לאומיים כיצד להגיב לתוקפנות בינלאומית, כפי שמתרחשת כעת עם הפלישה של רוסיה לאוקראינה.

בינה מלאכותית פשוט לא קרובה להשיג את היכולת לעשות נזק מסוג זה. תרחיש מהדק הנייר ואחרים דומים לו הם מדע בדיוני. יישומי AI קיימים מבצעים משימות ספציפיות במקום לעשות שיפוט רחב. הטכנולוגיה היא רחוק מלהיות מסוגל להחליט ואז לתכנן המטרות והמטרות הכפופות הנחוצות להשבתת התנועה כדי להשיג לך מושב במסעדה, או לפוצץ מפעל מכוניות כדי לספק את הגירוד שלך לאטבי נייר.

לא רק שלטכנולוגיה אין את היכולת המסובכת לשיפוט רב-שכבתי הכרוכה בתרחישים אלה, אין לה גם גישה אוטונומית לחלקים מספיקים של התשתית הקריטית שלנו כדי להתחיל לגרום לנזק מסוג זה.

מה זה אומר להיות בן אדם

למעשה, קיימת סכנה קיומית הטמונה בשימוש בבינה מלאכותית, אבל הסיכון הזה הוא קיומי במובן הפילוסופי ולא האפוקליפטי. AI בצורתו הנוכחית יכול לשנות את הדרך שבה אנשים רואים את עצמם. זה יכול לבזות יכולות וחוויות שאנשים מחשיבים כחיוניים להיות אנושיים.

לדוגמה, בני אדם הם יצורים שיפוטיים. אנשים שוקלים באופן רציונלי פרטים ומבצעים שיחות שיפוט יומיומיות בעבודה ובזמן הפנאי לגבי מי להעסיק, מי צריך לקבל הלוואה, במה לצפות וכן הלאה. אבל יותר ויותר פסקי דין אלה כן להיות אוטומטי ומעובד אלגוריתמים. כשזה קורה, העולם לא ייגמר. אבל אנשים יאבדו בהדרגה את היכולת לעשות את השיפוטים האלה בעצמם. ככל שאנשים יעשו פחות מהם, כך הם צפויים להיות גרועים יותר בהכנתם.

או שקול את תפקיד המקרה בחייהם של אנשים. בני אדם מעריכים מפגשים סתמיים: נתקלים במקום, אדם או פעילות במקרה, נמשכים אליו ומעריכים בדיעבד את התפקיד שמילאה התאונה בממצאים משמעותיים אלה. אבל התפקיד של מנועי המלצות אלגוריתמיים הוא לעשות להפחית סוג כזה של שלווה ולהחליף אותו בתכנון ובניבוי.

לבסוף, שקול את יכולות הכתיבה של ChatGPT. הטכנולוגיה נמצאת בתהליך של ביטול תפקיד כתיבת מטלות בהשכלה הגבוהה. אם כן, המחנכים יאבדו כלי מרכזי להוראת תלמידים איך לחשוב בצורה ביקורתית.

לא מת אבל מצטמצם

אז, לא, בינה מלאכותית לא תפוצץ את העולם. אבל החיבוק הבלתי ביקורתי יותר ויותר שלו, במגוון הקשרים צרים, פירושו שחיקה הדרגתית של כמה מהכישורים החשובים ביותר של בני האדם. אלגוריתמים כבר מערערים את יכולתם של אנשים לשפוט, ליהנות ממפגשים סתמיים ולחדד חשיבה ביקורתית.

המין האנושי ישרוד אבדות כאלה. אבל הדרך שלנו להתקיים תתרושש תוך כדי. החרדות הפנטסטיות סביב אסון הבינה המלאכותית הקרובה, הייחודיות, Skynet, או איך שתחשבו על זה, מטשטשות את העלויות העדינות יותר הללו. זכור את שורות הסיום המפורסמות של TS אליוט של "הגברים החלולים": "כך נגמר העולם", הוא כתב, "לא בחבטה אלא ביבבה".שיחה

על המחבר

ניר אייסיקוביץ, פרופסור לפילוסופיה ומנהל, המרכז לאתיקה יישומית, UMass בוסטון

מאמר זה פורסם מחדש מתוך שיחה תחת רישיון Creative Commons. קרא את ה מאמר מקורי.