AI יכול לחזות אם היחסים שלך יימשכו על סמך האופן שבו אתה מדבר עם השותף שלך

כל ילד (או בן / בת זוג) שננזף בגלל נימת הקול שלהם - כמו צעקות או סרקסטיות - יודע שה דרך אתה מדבר עם מישהו יכול להיות חשוב באותה מידה כמו מילים שאתה משתמש בו. אמנים ושחקנים קוליים משתמשים בזה מאוד - הם מיומנים להקנות משמעות לדיבורם, לפעמים הרבה יותר ממה שהמילים לבדן היו ראויות.

אבל כמה מידע מובל בטון הקול ובדפוסי השיחה שלנו וכיצד זה משפיע על מערכות היחסים שלנו עם אחרים? מערכות חישוביות יכולות כבר להקים מי שאנשים הם מהקולות שלהם, אז הם יכולים גם לספר לנו משהו על חיי האהבה שלנו? באופן מדהים, זה נראה כמו זה.

מחקר חדש, פורסם זה עתה בכתב העת PLOS-ONE, ניתח את המאפיינים הקוליים של 134 זוגות שעברו טיפול. חוקרים מאוניברסיטת דרום קליפורניה השתמשו במחשבים כדי לחלץ תכונות סטנדרטיות של ניתוח דיבור מהקלטות של משתתפי הפגישה הטיפולית במשך שנתיים. התכונות - כולל גובה הצליל, שונות בגובה הצליל ובאינטונציה - כל אלה נוגעים להיבטים קוליים כמו טון ועוצמה.

לאחר מכן הוכשר אלגוריתם ללימוד מכונה ללמוד קשר בין אותם מאפיינים קוליים לבין התוצאה הסופית של הטיפול. זה לא היה פשוט כמו גילוי צעקות או העלאת קולות - זה כלל את יחסי הגומלין של השיחה, שדיברו מתי וכמה זמן וגם צליל הקולות. התברר כי התעלמות מהנאמר והתחשבות רק בדפוסי הדיבור הללו הייתה מספקת כדי לחזות אם זוגות ישארו יחד או לא. זה היה מונע נתונים גרידא, ולכן זה לא התייחס לתוצאות למאפיינים קוליים ספציפיים.

איך טון קול יכול לשנות את המשמעות של כמה מילים.

{youtube}https://youtu.be/GVqJtvRjuns{/youtube}


גרפיקת מנוי פנימית


מעניין לציין כי הקלטות הווידיאו המלאות של הפגישה הטיפולית נמסרו אז למומחים לסיווג. בניגוד ל- AI, הם ניבאו את התחזיות שלהם באמצעות הערכה פסיכולוגית על סמך התכונות הקוליות (ואחרות) - כולל המילים המדוברות ושפת הגוף. באופן מפתיע, התחזית שלהם לגבי התוצאה הסופית (הם היו נכונים ב 75.6% מהמקרים) הייתה נחותה יותר מהתחזיות שביצעה ה- AI בהתבסס רק על מאפיינים קוליים (79.3%). ברור שיש אלמנטים המקודדים באופן שאנו מדברים שאפילו מומחים לא מודעים להם. אך התוצאות הטובות ביותר הגיעו משילוב ההערכה האוטומטית עם הערכת המומחים (79.6% נכונים).

המשמעות של זה לא כל כך קשורה לשילוב AI ביעוץ נישואין או לגרום לזוגות לדבר יפה יותר אחד עם השני (כמה שיותר טוב שיהיה). המשמעות היא לחשוף כמה מידע על הרגשות הבסיסיים שלנו מקודד באופן הדיבור שלנו - חלקם לא ידוע לנו לחלוטין.

למילים שנכתבות על דף או מסך יש משמעויות מילוניות הנגזרות מהגדרות המילון שלהן. אלה משתנים לפי הקשר של מילים מסביב. יכולה להיות מורכבות רבה בכתיבה. אך כשקוראים מילים בקול, נכון שהם מקבלים משמעויות נוספות המועברות על ידי לחץ מילים, נפח, קצב דיבור וטון קול. בשיחה אופיינית יש משמעות גם כמה זמן כל דובר מדבר, ובאיזו מהירות זה או אחר עשוי להתערב.

שקול את השאלה הפשוטה "מי אתה?". נסה לדבר זאת בלחץ על מילים שונות; "מי הם אתה?", "Who יש לו אתה?" ו"מי האם אתה?". הקשיבו לאלה - המשמעות הסמנטית יכולה להשתנות עם איך שאנחנו קוראים גם כשהמילים נשארות זהות.

מחשבים שקוראים 'חושים דולפים'?

זה לא מפתיע שמילים משדרות משמעויות שונות בהתאם לאופן הדיבור שלהן. זה גם לא מפתיע שמחשבים יכולים לפרש חלק מהמשמעות מאחורי האופן בו אנו בוחרים לדבר (אולי יום אחד הם אפילו יוכלו להבין אירוניה).

אך מחקר זה לוקח את העניינים רחוק יותר מסתם התבוננות במשמעות המועברת במשפט. נראה שהוא חושף עמדות ומחשבות בסיסיות העומדות מאחורי המשפטים. זוהי רמת הבנה הרבה יותר עמוקה.

משתתפי הטיפול לא קראו מילים כמו שחקנים. הם פשוט דיברו בטבעיות - או בצורה טבעית ככל שיכלו במשרד המטפל. ובכל זאת הניתוח חשף מידע על תחושותיהם ההדדיות כי הם "דולפים" בשוגג לנאומם. זה יכול להיות אחד הצעדים הראשונים בשימוש במחשבים כדי לקבוע מה אנחנו באמת חושבים או מרגישים. דמיין לרגע שיחה עם סמארטפונים עתידיים - האם "נדלף" מידע שהם יכולים להרים? איך הם יגיבו?

האם הם יכולים לייעץ לנו לגבי שותפים פוטנציאליים על ידי האזנה לנו מדברים יחד? האם הם יכלו לגלות נטייה להתנהגות א-חברתית, אלימות, דיכאון או מצבים אחרים? זה לא יהיה קפיצת דמיון לדמיין את המכשירים עצמם כמטפלים עתידיים - אינטראקציה איתנו בדרכים שונות כדי לעקוב אחר יעילות ההתערבויות שהם מעבירים.

אל תדאג עדיין בגלל שאנחנו רחוקים שנים מעתיד כזה, אבל זה כן עולה בעיות פרטיות, במיוחד ככל שאנו מתקשרים עמוק יותר עם מחשבים באותו זמן שהם הופכים לחזקים יותר בניתוח העולם סביבם.

שיחהכאשר אנו נעצרים גם כדי להתחשב בחושים האנושיים האחרים מלבד צליל (דיבור); אולי אנו גם מדליפים מידע דרך ראייה (כגון שפת גוף, הסמקה), מגע (טמפרטורה ותנועה) או אפילו ריח (פרומונים). אם מכשירים חכמים יכולים ללמוד כל כך הרבה על ידי האזנה לאיך אנו מדברים, אפשר לתהות כמה הם יכולים ללקט משאר החושים.

על המחבר

איאן מקלופלין, פרופסור למחשוב, ראש בית ספר (מדוויי), אוניברסיטת קנט

מאמר זה פורסם במקור ב שיחה. קרא את מאמר מקורי.

ספרים קשורים:

at InnerSelf Market ואמזון