רובוט יושב ליד מחשב נייד עם ידיים על המפתחות
תמונה על ידי סוזן ציפריאנו 

מהעורך:

כפי שהודגש במאמר זה, פיתוח קמפיינים פוליטיים מונעי בינה מלאכותית, כמו המכונה ההיפותטית שנקראת Clogger, עלולה לערער עמוקות את שלמות הבחירות. על ידי מינוף אוטומציה, מסרים מותאמים ולמידת חיזוק, למכונות אלו יש פוטנציאל לתמרן ולשנות את התנהגות הבוחרים בקנה מידה עצום.

בעידן שבו הבינה המלאכותית (AI) מתקדמת במהירות, עלינו להישאר ערניים לאיומים הפוטנציאליים שהיא מציבה על התהליכים הדמוקרטיים שלנו. הופעתם של קמפיינים מונעי בינה מלאכותית מאתגרת את עצם מהות הדמוקרטיה. במקום שהבחירות ייקבעו על ידי כוחם של רעיונות, הצעות מדיניות ובחירות אמיתיות של הבוחרים, הן יכולות להיות מושפעות על ידי מכונות המתמקדות אך ורק בניצחון. התוכן השורר יגיע ממודלים של שפות בינה מלאכותית ללא קשר לאמת או לעקרונות פוליטיים. למעשה, תוצאת הבחירות תהיה מוכתבת על ידי בינה מלאכותית, שתשחק את התהליך הדמוקרטי.

כדי למנוע את עלייתה של "קלוגוקרטיה" וביטול העצמה של האזרחים, חיוני שננקוט פעולה. הגנת פרטיות משופרת וחוקי פרטיות נתונים חזקים יכולים לעזור להגביל את הגישה של מכונות בינה מלאכותית לנתונים אישיים, ולהפחית את האפקטיביות שלהם במיקוד ובמניפולציה של אנשים. ועדות הבחירות צריכות גם לשקול לאסור או להסדיר בקפדנות מערכות AI שנועדו להשפיע על הבוחרים. הטמעת תקנות המחייבות כתבי ויתור ברורים כאשר נעשה שימוש בהודעות שנוצרו על ידי בינה מלאכותית בקמפיינים פוליטיים. זה יכול לספק שקיפות ולעזור לבוחרים לקבל החלטות מושכלות.

זה הכרחי שנתייחס לאתגרים הללו באופן יזום ונבטיח שהכוח של AI ירתום באחריות כדי לשמור על עקרונות הדמוקרטיה. על ידי שמירה על שלמות הבחירות והגנה על חופש הבחירה, נוכל לנווט במורכבות של AI ולשמור על יסודות הממשל הדמוקרטי.

איך בינה מלאכותית יכולה להשתלט על הבחירות - ולערער את הדמוקרטיה

נכתב על ידי ארכון פונג, פרופסור לאזרחות וממשל עצמי, בית הספר להרווארד קנדי ו לורנס לסיג, פרופסור למשפטים ומנהיגות, אוניברסיטת הרווארד


גרפיקת מנוי פנימית


האם ארגונים יכולים להשתמש במודלים של שפות בינה מלאכותית כגון ChatGPT כדי לגרום לבוחרים להתנהג בדרכים ספציפיות?

הסנאטור ג'וש האולי שאל את מנכ"ל OpenAI, סם אלטמן, שאלה זו 16 במאי 2023, דיון בסנאט האמריקני על בינה מלאכותית. אלטמן השיב כי הוא אכן מודאג מכך שחלק מהאנשים עלולים להשתמש במודלים של שפה כדי לתמרן, לשכנע ולקיים אינטראקציות אחד על אחד עם בוחרים.

אלטמן לא פירט, אבל אולי חשב על משהו כזה. תארו לעצמכם שבקרוב, טכנולוגים פוליטיים מפתחים מכונה בשם Clogger - קמפיין פוליטי בקופסה שחורה. קלאגר שואפת ללא הפוגה רק למטרה אחת: למקסם את הסיכויים שהמועמד שלה - הקמפיין שרוכש את שירותיה של Clogger Inc. - ינצח בבחירות.

בעוד שפלטפורמות כמו פייסבוק, טוויטר ויוטיוב משתמשות בצורות של AI כדי לגרום למשתמשים לבזבז יותר זמן באתרים שלהם, ל-AI של Clogger תהיה מטרה אחרת: לשנות את התנהגות ההצבעה של אנשים.

איך קלגר יעבוד

בְּתוֹר מדען פוליטי וכן חוקר משפטי שחוקרים את ההצטלבות בין טכנולוגיה ודמוקרטיה, אנו מאמינים שמשהו כמו Clogger יכול להשתמש באוטומציה כדי להגדיל באופן דרמטי את קנה המידה, ואולי גם את האפקטיביות של מניפולציה של התנהגות וטכניקות מיקרוטירגוט שבהם השתמשו בקמפיינים פוליטיים מאז תחילת שנות ה-2000. בדיוק כמו מפרסמים משתמשים בהיסטוריית הגלישה והמדיה החברתית שלך כדי למקד כעת מודעות מסחריות ופוליטיות באופן אינדיבידואלי, Clogger ישים לב אליכם - ולמאות מיליוני מצביעים אחרים - בנפרד.

זה יציע שלוש התקדמות ביחס למניפולציית ההתנהגות האלגוריתמית המתקדמת הנוכחית. ראשית, מודל השפה שלו ייצור הודעות - טקסטים, מדיה חברתית ודואר אלקטרוני, אולי כולל תמונות וסרטונים - המותאמים לך באופן אישי. בעוד שמפרסמים מציבים באופן אסטרטגי מספר קטן יחסית של מודעות, מודלים של שפה כמו ChatGPT יכולים ליצור אינספור מסרים ייחודיים עבורך באופן אישי - ומיליונים עבור אחרים - במהלך מסע פרסום.

שנית, קלאגר ישתמש בטכניקה שנקראת למידה חיזוק כדי ליצור רצף של הודעות שישנה יותר ויותר את ההצבעה שלך. למידת חיזוק היא גישת למידת מכונה, ניסוי וטעייה, שבה המחשב נוקט פעולות ומקבל משוב לגבי מה שעובד טוב יותר כדי ללמוד כיצד להשיג מטרה. מכונות שיכולות לשחק Go, שח ומשחקי וידאו רבים טוב יותר מכל אדם השתמשו בלימוד חיזוק.

איך עובדת למידת חיזוק.

 

שלישית, במהלך מסע פרסום, המסרים של Clogger עשויים להתפתח כדי לקחת בחשבון את התגובות שלך לשליחות הקודמות של המכונה ומה שהיא למדה על שינוי דעתם של אחרים. Clogger יוכל לנהל "שיחות" דינמיות איתך - ועם מיליוני אנשים אחרים - לאורך זמן. ההודעות של קלוגר יהיו דומות ל מודעות שעוקבות אחריך באתרים שונים וברשתות חברתיות.

הטבע של AI

שלוש תכונות נוספות - או באגים - ראויות לציון.

ראשית, המסרים ש-clogger שולח עשויים להיות פוליטיים בתוכן או לא. המטרה היחידה של המכונה היא למקסם את נתח ההצבעות, וסביר להניח שהיא תמציא אסטרטגיות להשגת מטרה זו שאף פעיל אנושי לא היה חושב עליה.

אפשרות אחת היא לשלוח לבוחרים יריבים מידע על תשוקות לא פוליטיות שיש להם בספורט או בבידור כדי לקבור את המסרים הפוליטיים שהם מקבלים. אפשרות נוספת היא שליחת הודעות מרתיעה - למשל פרסומות לבריחת שתן - המתוזמנות להתאים להודעות של היריבים. ועוד אחד הוא מניפולציה של קבוצות חברים ברשתות החברתיות של הבוחרים כדי לתת תחושה שהמעגלים החברתיים שלהם תומכים במועמד שלו.

שנית, לקוגר אין שום התייחסות לאמת. אכן, אין לה דרך לדעת מה נכון או שקר. מודל השפה "הזיות" אינם מהווים בעיה עבור מכונה זו מכיוון שמטרתה היא לשנות את ההצבעה שלך, לא לספק מידע מדויק.

שלישית, כי זה א סוג קופסה שחורה של בינה מלאכותית, לאנשים לא תהיה דרך לדעת באילו אסטרטגיות הוא משתמש.

תחום הבינה המלאכותית הניתנת להסבר שואף לפתוח את הקופסה השחורה של מודלים רבים של לימוד מכונה כדי שאנשים יוכלו להבין איך הם עובדים.

 

קלגוקרטיה

אם הקמפיין הרפובליקני לנשיאות היה פורס את קלאגר ב-2024, סביר להניח שהקמפיין הדמוקרטי ייאלץ להגיב בעין, אולי עם מכונה דומה. קרא לזה דוגר. אם מנהלי הקמפיינים היו חושבים שהמכונות האלה יעילות, התחרות הנשיאותית עשויה בהחלט להסתכם בקלוגר נגד דוגר, והמנצח יהיה הלקוח של המכונה היעילה יותר.

למדענים ולמומחים בתחום המדינה יהיה הרבה מה לומר על הסיבה לכך ש-AI זה או אחר גבר, אבל סביר להניח שאף אחד לא באמת ידע. הנשיא ייבחר לא בגלל שהצעות המדיניות שלו או הרעיונות הפוליטיים שלו שכנעו יותר אמריקאים, אלא בגלל שהיה לו את הבינה המלאכותית האפקטיבית יותר. התוכן שניצח את היום היה מגיע מבינה מלאכותית המתמקדת אך ורק בניצחון, ללא רעיונות פוליטיים משלו, ולא ממועמדים או מפלגות.

במובן מאוד חשוב זה, מכונה הייתה מנצחת בבחירות ולא אדם. הבחירות כבר לא יהיו דמוקרטיות, למרות שכל הפעולות הרגילות של הדמוקרטיה - הנאומים, המודעות, ההודעות, ההצבעה וספירת הקולות - היו מתרחשות.

הנשיא שנבחר בינה מלאכותית יוכל אז ללכת באחת משתי דרכים. הוא או היא יכולים להשתמש במעטה הבחירות כדי להמשיך במדיניות המפלגה הרפובליקנית או הדמוקרטית. אבל מכיוון שלרעיונות המפלגה אולי היה מעט לעשות עם הסיבה שאנשים הצביעו כפי שהם הצביעו - לקוגר ולדוגר לא אכפת מהשקפות מדיניות - מעשיו של הנשיא לא בהכרח ישקפו את רצון הבוחרים. הבוחרים היו עוברים מניפולציות על ידי ה-AI במקום לבחור בחופשיות את המנהיגים והמדיניות הפוליטיים שלהם.

דרך נוספת היא שהנשיא ימשיך את המסרים, ההתנהגויות והמדיניות שהמכונה חוזה שימקסמו את סיכויי הבחירה מחדש. בדרך זו, לנשיא לא תהיה מצע או אג'נדה מסוימת מעבר לשמירה על הכוח. פעולותיו של הנשיא, בהנחייתו של קלאגר, יהיו אלה שיעשו מניפולציות על הבוחרים במקום לשרת את האינטרסים האמיתיים שלהם או אפילו את האידיאולוגיה של הנשיא עצמו.

הימנעות מקלוגוקרטיה

אפשר יהיה להימנע ממניפולציה של בחירות בינה מלאכותית אם מועמדים, קמפיינים ויועצים ייסרעו על השימוש בבינה מלאכותית פוליטית כזו. אנחנו מאמינים שזה לא סביר. אם היו פותחו קופסאות שחורות אפקטיביות מבחינה פוליטית, הפיתוי להשתמש בהן היה כמעט בלתי נסבל. אכן, יועצים פוליטיים עשויים בהחלט לראות שימוש בכלים אלה כנדרש מאחריותם המקצועית כדי לעזור למועמדים שלהם לנצח. וברגע שמועמד אחד משתמש בכלי יעיל שכזה, בקושי ניתן היה לצפות שהמתנגדים יתנגדו על ידי פירוק מנשקם באופן חד צדדי.

הגנת פרטיות משופרת יעזור. Clogger יהיה תלוי בגישה לכמויות אדירות של נתונים אישיים על מנת למקד לאנשים, ליצור מסרים המותאמים לשכנוע או לתמרן אותם, ולעקוב אחריהם ולמקד אותם מחדש במהלך מסע פרסום. כל פיסת מידע שחברות או קובעי מדיניות מכחישים את המכונה תהפוך אותה לפחות יעילה.

חוקי פרטיות נתונים חזקים יכולים לעזור להרחיק AI ממניפולטיביות.

 

פתרון נוסף טמון בוועדות הבחירות. הם יכולים לנסות לאסור או לווסת בצורה חמורה את המכונות הללו. יש ויכוח עז לגבי האם כזה נאום "משכפל"., גם אם זה פוליטי באופיו, ניתן להסדיר. מסורת חופש הביטוי הקיצונית של ארה"ב מוביל אקדמאים מובילים רבים לומר שזה לא יכול.

אבל אין סיבה להרחיב אוטומטית את הגנת התיקון הראשון למוצר של מכונות אלו. אולי האומה תבחר לתת זכויות למכונות, אבל זו צריכה להיות החלטה המבוססת על האתגרים של היום, לא ההנחה השגויה שדעותיו של ג'יימס מדיסון ב-1789 נועדו לחול על AI.

הרגולטורים של האיחוד האירופי נעים בכיוון הזה. קובעי המדיניות שינו את הטיוטה של ​​הפרלמנט האירופי לחוק הבינה המלאכותית שלו כדי לייעד "מערכות AI להשפיע על מצביעים בקמפיינים" כ"סיכון גבוה" ובכפוף לביקורת רגולטורית.

צעד אחד בטוח יותר מבחינה חוקתית, אם קטן יותר, שכבר אומץ בחלקו על ידי רגולטורי אינטרנט אירופיים וגם קליפורניה, היא לאסור על בוטים להתחזות כאנשים. לדוגמה, הרגולציה עשויה לדרוש שהודעות מסע הפרסום יגיעו עם כתבי ויתור כאשר התוכן שהם מכילים נוצר על ידי מכונות ולא על ידי בני אדם.

זה יהיה כמו דרישות הוויתור הפרסומיות - "משולמות על ידי ועדת סם ג'ונס לקונגרס" - אך שונו כדי לשקף את מקור הבינה המלאכותית שלה: "המודעה שנוצרה על ידי AI זו שולמה על ידי ועדת סם ג'ונס לקונגרס." גרסה חזקה יותר עשויה לדרוש: "ההודעה שנוצרה על ידי בינה מלאכותית זו נשלחת אליך על ידי ועדת סם ג'ונס לקונגרס מכיוון שקלוגר חזה שכך תגדיל את הסיכוי שלך להצביע לסם ג'ונס ב-0.0002%." לכל הפחות, אנו מאמינים שלבוחרים מגיע לדעת מתי זה בוט שמדבר אליהם, והם צריכים לדעת גם למה.

האפשרות של מערכת כמו Clogger מראה שהדרך לקראת חוסר העצמה הקולקטיבי האנושי אולי לא ידרוש על-אנושי כלשהו בינה כללית מלאכותית. זה עשוי רק לדרוש פעילים ויועצים נלהבים מדי שיש להם כלים חדשים וחזקים שיכולים ללחוץ ביעילות על הכפתורים הרבים של מיליוני אנשים.

אודות הסופרים

ארכון פונג, פרופסור לאזרחות וממשל עצמי, בית הספר להרווארד קנדי ו לורנס לסיג, פרופסור למשפטים ומנהיגות, אוניברסיטת הרווארד

מאמר זה פורסם מחדש מתוך שיחה תחת רישיון Creative Commons. קרא את ה מאמר מקורי.


תוספת העורך: הפוטנציאל של AI להשתלט על הבחירות ולערער את הדמוקרטיה הוא דאגה דחופה הדורשת את תשומת ליבנו. כפי שהדגיש מאמר זה, עלייתם של קמפיינים פוליטיים מונעי בינה מלאכותית כמו Clogger עשויה לעצב מחדש את תוצאות הבחירות, כאשר מכונות ישפיעו על התנהגות הבוחרים בקנה מידה חסר תקדים. ההשלכות של שינוי כזה יהיו מרחיקות לכת, כאשר הבחירות ייקבעו לא על פי רצון העם אלא על ידי האפקטיביות של מניפולציה של AI.

כדי למנוע את ביטול העצמה הזה של האזרחים ולשמור על הדמוקרטיה, עלינו לנקוט בצעדים יזומים. הגנה איתנה על פרטיות ותקנות המגבילות את ההשפעה של מערכות בינה מלאכותית בבחירות הן חיוניות. על ידי הבטחת שקיפות, אכיפת כתבי ויתור ברורים לגבי תוכן שנוצר בינה מלאכותית, וקידום שימוש אחראי בבינה מלאכותית, אנו יכולים לשמור על שלמות התהליכים הדמוקרטיים ולהגן על ערכי היסוד של החברה שלנו.

זה חיוני שנישאר ערניים ונעבוד ביחד כדי לנווט את האתגרים שמציבה הבינה המלאכותית בבחירות. על ידי כך, נוכל לשמר את האידיאלים הדמוקרטיים העומדים בבסיס החברות שלנו ולהבטיח עתיד שבו כוחה של הטכנולוגיה מתיישר עם האינטרסים והשאיפות של האנשים.

לשבור

ספרים קשורים:

על רודנות: עשרים שיעורים מהמאה העשרים

מאת טימותי סניידר

ספר זה מציע לקחים מההיסטוריה לשימור והגנה על הדמוקרטיה, לרבות חשיבות המוסדות, תפקידם של אזרחים בודדים וסכנות הסמכותיות.

לחץ למידע נוסף או להזמנה

הזמן שלנו הוא עכשיו: כוח, מטרה והמאבק לאמריקה הוגנת

מאת סטייסי אברמס

המחברת, פוליטיקאית ופעילה, חולקת את חזונה לדמוקרטיה מכילה וצודקת יותר ומציעה אסטרטגיות מעשיות למעורבות פוליטית ולגיוס בוחרים.

לחץ למידע נוסף או להזמנה

איך דמוקרטיות מתות

מאת סטיבן לויצקי ודניאל זיבלט

ספר זה בוחן את סימני האזהרה והגורמים להתמוטטות דמוקרטית, תוך הסתמכות על מקרי מקרים מרחבי העולם כדי להציע תובנות כיצד להגן על הדמוקרטיה.

לחץ למידע נוסף או להזמנה

העם, לא: היסטוריה קצרה של אנטי פופוליזם

מאת תומס פרנק

המחבר מציע היסטוריה של תנועות פופוליסטיות בארצות הברית ומבקר את האידיאולוגיה ה"אנטי-פופוליסטית" שלטענתו חנקה את הרפורמה והקדמה הדמוקרטית.

לחץ למידע נוסף או להזמנה

דמוקרטיה בספר אחד או פחות: איך זה עובד, למה זה לא, ומדוע תיקון זה קל יותר ממה שאתה חושב

מאת דיוויד ליט

ספר זה מציע סקירה כללית של הדמוקרטיה, לרבות נקודות החוזק והחולשה שלה, ומציע רפורמות כדי להפוך את המערכת למגיבה ואחראית יותר.

לחץ למידע נוסף או להזמנה