הבעיה של פייסבוק מסובכת יותר מחדשות מזויפות

בעקבות ניצחונו הבלתי צפוי של דונלד טראמפ, רבים שאלות הועלו על תפקידה של פייסבוק ב קידום מידע לא מדויק ומפלגתי ביותר במהלך המירוץ לנשיאות והאם החדשות המזויפות הללו השפיעו על תוצאות הבחירות.

כמה מהם הוזילו ההשפעה של פייסבוק, כולל המנכ"ל מארק צוקרברג, שאמר שכן "מאוד לא סביר" שהחדשות המזויפות היו יכולות להניע את הבחירות. אך שאלות בדבר חשיבותה הפוליטית של הרשת החברתית ראויות יותר מתשומת לב.

עשו את הפייסבוק אלגוריתמים לסינון להסביר מדוע כל כך הרבה ליברלים אימצו את אמונם בניצחון של קלינטון (מהדהד את הטעות שעשה תומכי רומני בשנת 2012)? והוא החדשות המזויפות שהופצו בפייסבוק הסיבה שכל כך הרבה תומכי טראמפ אישרו הצהרות כוזבות באופן מופגן של המועמד שלהם?

הטענה הפופולרית כי "בועות סינון" הן הסיבה לכך שחדשות מזויפות משגשגות בפייסבוק הן כמעט שגויות. אם הרשת מעודדת אנשים להאמין לאמיתות - וזה אם גדול - הבעיה היא ככל הנראה באופן שבו הפלטפורמה מתקשרת עם נטיות חברתיות אנושיות בסיסיות. זה הרבה יותר קשה לשנות.

ציבור שגוי

לא ניתן להכחיש את תפקידה של פייסבוק בהפצת החדשות הפוליטיות. במאי 2016, 44 אחוז מהאמריקאים אמרו שקיבלו חדשות מאתר המדיה החברתית. ושכיחות המידע השגוי המופץ באמצעות פייסבוק היא לֹא מוּטָל בְּסֶפֶק.


גרפיקת מנוי פנימית


סביר אם כן שכמות החדשות המזויפות בפלטפורמה בה כל כך הרבה אנשים מקבלים את החדשות שלהם יכולה לעזור להסביר מדוע כל כך הרבה אמריקאים לא יודעים מידע על פוליטיקה.

אבל קשה לומר עד כמה זה סביר. התחלתי ללמוד את תפקיד האינטרנט בקידום אמונות כוזבות במהלך הבחירות ב -2008, תוך הפנתי את תשומת ליבי למדיה החברתית בשנת 2012. במחקר שוטף לא מצאתי עדויות עקביות מעטות לכך שהשימוש במדיה החברתית מקדם קבלת טענות כוזבות לגבי המועמדים, למרות שכיחות של הרבה אמיתות. במקום זאת נראה כי בשנת 2012, כמו בשנת 2008, דוא"ל המשיך להיות צינור חזק במיוחד לשקרים ותיאוריות קונספירציה. למדיה החברתית לא הייתה השפעה ניתנת לזיהוי על אמונותיהם של אנשים.

אולם לרגע, נניח כי שנת 2016 הייתה שונה מ -2012 ו -2008 (הבחירות היו בהחלט ייחודיות בהרבה דברים אחרים).

אם פייסבוק מקדמת פלטפורמה שבה אזרחים פחות מסוגלים להבחין באמת מבדיה, זה יהווה איום חמור על הדמוקרטיה האמריקאית. אבל שמות הבעיה לא מספיק. כדי להילחם בזרימת המידע השגוי דרך המדיה החברתית, חשוב להבין מדוע זה קורה.

אל תאשים את בועות המסנן

פייסבוק רוצה שמשתמשיה יהיו מעורבים, לא המומים, ולכן היא מעסיקה תוכנות קנייניות שמסננות את עדכוני החדשות של המשתמשים ובוחרת את התוכן שיופיע. הסיכון טמון באופן ההתאמה הזו.

יש ראיות רבות שאנשים נמשכים לחדשות שמאששות את נקודת המבט הפוליטית שלהם. התוכנה של פייסבוק לומדת מפעולות העבר של המשתמשים; הוא מנסה לנחש אילו סיפורים הם עשויים ללחוץ או לשתף בעתיד. לקיצוניותו זה מייצר בועת הסינון, שבהם משתמשים נחשפים רק לתוכן שמאשר מחדש את ההטיות שלהם. הסיכון, אם כן, הוא זה בועות סינון מקדמות תפיסות מוטעות על ידי הסתרת האמת.

הערעור של הסבר זה ברור מאליו. זה קל להבנה, אז אולי יהיה קל לתקן. היפטר מעדכוני חדשות בהתאמה אישית, ובועות סינון אינן עוד.

הבעיה במטאפורה של בועת המסנן היא בהנחה שאנשים מבודדים לחלוטין מפרספקטיבות אחרות. למעשה, רב מחקרים יש הראה שדיאטות התקשורת של יחידים כמעט תמיד כוללות מידע ומקורות המאתגרים את עמדותיהם הפוליטיות. ומחקר של נתוני המשתמשים בפייסבוק נמצא כי מפגשים עם מידע רוחבי הם רחבים. במילים אחרות, סביר להניח שהחזקת אמונות כוזבות לא יוסבר על ידי אנשים חוסר קשר עם חדשות מדויקות יותר.

במקום זאת, זהויות פוליטיות הקיימות של אנשים לעצב בצורה עמוקה את אמונותיהם. כך שגם כשאתה מתמודד עם אותו מידע, בין אם זה א מאמר חדשות או בדיקת עובדהאנשים עם אוריינטציות פוליטיות שונות מוציאים לעיתים קרובות משמעות שונה באופן דרמטי.

ניסוי מחשבתי עשוי לעזור: אם היית תומך בקלינטון, האם היית מודע לכך שאתחזות האתר הנחשב FiveThirtyEight נתן לקלינטון רק 71 אחוז סיכוי לנצח? הסיכויים האלה טובים יותר מהטבעת מטבע, אבל רחוקים מלהיות בטוח. אני חושד שהרבה דמוקרטים היו המומים למרות שראו את הראיות הלא נוחות הללו. אכן, רבים ביקרו את ההקרנה הזו בימים שלפני הבחירות.

אם הצבעת לטראמפ, האם נתקלת אי פעם בראיות המחלוקות על קביעתו של טראמפ לפיה הונאת הבוחרים נפוצה בארה"ב? בודקי עובדות ו ארגוני חדשות סיקרו נושא זה בהרחבה והציעו ראיות חזקות לכך שהתביעה אינה נכונה. עם זאת, תומך טראמפ עשוי להיות בלתי זז: בסקר בספטמבר 2016, 90 אחוז מתומכי טראמפ אמרו שהם לא סומכים על בודקי עובדות.

פייסבוק = פרטיזנים זועמים?

אם בידוד מהאמת הוא באמת המקור העיקרי למידע לא מדויק, הפיתרון יהיה ברור: להפוך את האמת לגלויה יותר.

למרבה הצער, התשובה אינה כה פשוטה. מה שמחזיר אותנו לשאלת פייסבוק: האם ישנם היבטים אחרים בשירות העלולים לעוות את אמונות המשתמשים?

יעבור זמן מה עד שהחוקרים יוכלו לענות על שאלה זו בביטחון, אך כמי שחקר כיצד הדרכים השונות שבהן טכנולוגיות אינטרנט אחרות יכולות לגרום לאנשים להאמין למידע כוזב, אני מוכן להציע כמה ניחושים משכילים.

ישנם שני דברים שכבר ידוע לנו על פייסבוק שיכולים לעודד הפצת מידע כוזב.

ראשית, רגשות מדבקים, והם יכולים להתפשט בפייסבוק. מחקר אחד רחב היקף הראה כי שינויים קטנים בעדכוני החדשות של משתמשי פייסבוק יכול לעצב את הרגשות שהם מבטאים בפוסטים מאוחרים יותר. במחקר זה השינויים הרגשיים היו קטנים, אך גם השינויים בעדכון החדשות שגרמו להם. תאר לעצמך כיצד משתמשי פייסבוק מגיבים להאשמות נרחבות בשחיתות, בפעילות פלילית ובשקרים של מועמדים. זה לא מפתיע את זה כמעט מחצית (49 אחוז) מכלל המשתמשים תיארו את הדיון הפוליטי ברשתות החברתיות כ"זועם ".

כשמדובר בפוליטיקה, כעס הוא רגש חזק. הוכח שהוא גורם לאנשים מוכנים יותר לקבל שקר מפלגתי וסביר יותר לפרסם ולשתף מידע פוליטי, ככל הנראה כולל מאמרי חדשות מזויפים המחזקים את אמונותיהם. אם השימוש בפייסבוק מכעיס את פרטיזנים תוך שהוא חושף אותם לשקר מפלגתי, ייתכן שההבטחה בנוכחות מידע מדויק לא משנה הרבה. אנשים כועסים רפובליקנים או דמוקרטים שמים את אמונם במידע שגורם לצד שלהם להראות טוב.

שנית, נראה כי פייסבוק מחזקת את הזהות הפוליטית של האנשים - מה שמקדם כבר גדול חלוקת פרטיזנים. פייסבוק אמנם אינה מגנה על אנשים מפני מידע שהם אינם מסכימים עמו, אך בהחלט מקלה על מציאת אנשים דומים. הרשתות החברתיות שלנו נוטים לכלול אנשים רבים החולקים את הערכים והאמונות שלנו. וזו עשויה להיות דרך נוספת לפייסבוק מחזקת שקר שמונע פוליטית. אמונות משמשות לרוב תפקיד חברתי, המסייעות לאנשים להגדיר מי הם וכיצד הם משתלבים בעולם. ככל שאנשים קלים יותר לראות את עצמם במונחים פוליטיים, כך הם מתחברים יותר לאמונות המאששות את הזהות הזו.

שני גורמים אלה - האופן שבו כעס יכול להתפשט על הרשתות החברתיות של פייסבוק, וכיצד רשתות אלו יכולות להפוך את הזהות הפוליטית של יחידים למרכזית יותר במי שהם - ככל הנראה מסבירים את האמונות הלא מדויקות של משתמשי פייסבוק בצורה יעילה יותר מאשר בועת הפילטר כביכול.

אם זה נכון, אז לפנינו אתגר רציני. סביר להניח שפייסבוק תשכנע לשנות את אלגוריתם הסינון שלה כדי לתת עדיפות למידע מדויק יותר. לגוגל יש כבר ביצע מאמץ דומה. והדיווחים האחרונים מצביעים על כך שפייסבוק עשויה להיות לוקח את הבעיה יותר ברצינות ממה שהערות צוקרברג מרמזות.

אך אין בכך כדי לטפל בכוחות הבסיסיים המפיצים ומחזקים מידע כוזב: רגשות ואנשים ברשתות החברתיות שלך. לא ברור מאליו שניתן או צריך "לתקן" מאפיינים אלה של פייסבוק. רשת חברתית נטולת רגש נראית כמו סתירה, ושיטור עם מי אנשים מקיימים אינטראקציה אינו דבר שהחברה שלנו צריכה לאמץ.

יכול להיות שפייסבוק משתפת כמה של האשמה ב כמה מהשקרים שהופצו בשנת בחירות זו - ושהם שינו את מהלך הבחירות.

אם נכון, האתגר יהיה להבין מה אנחנו יכולים לעשות בקשר לזה.

שיחה

על המחבר

ר 'קלי גארט, פרופסור חבר לתקשורת, האוניברסיטה של ​​מדינת אוהיו

מאמר זה פורסם במקור ב שיחה. קרא את מאמר מקורי.

ספרים קשורים

at InnerSelf Market ואמזון