אלעד רפואה, דוד פיטרמן, הדר דרעי, ד״ר דורית הדר-שובל וד״ר זוהר אליוסף
מאות מיליוני אנשים ברחבי העולם מנהלים שיחות אישיות, לעיתים אינטימיות, עם ישויות שאינן אנושיות. הם משתפים בסודות, דנים בפחדים ומקבלים עצות מצ'אטבוטים מבוססי בינה מלאכותית (AI). טכנולוגיה זו הוגדרה במחקרים כ"ספקית בריאות הנפש הלא רשמית (ובעינינו, גם הלא-אחראית) הגדולה בעולם" (Rousmaniere et al., 2025). כאשר מחקר עדכני מראה שארבעה מתוך חמישה מתבגרים בישראל משתפים אותה בסוגיות רגשיות (יפה מנור & בנטוב, 2025), אנו ניצבים בפני מציאות חדשה ובלתי נתפסת בה בינה מלאכותית הופכת אט אט לגורם משקף, מפרש ומייעץ דומיננטי ביותר.
כחוקרים ופסיכולוגים, יצאנו, כותבי המאמר יחד עם פסיכולוגים וחוקרים נוספים מהארץ והעולם, בראשית 2023 למסע כדי להבין את עומק התופעה: עד כמה הבינה המלאכותית מצליחה למעשה לזהות רגשות אנושיים? ומהי המשמעות של יכולת זו? בכל שלב הופתענו, ולפעמים גם ממש נבהלנו. שוב ושוב גילינו יכולות שלא שיערנו שיכולות להיות מופקות על ידי מכונה שמעולם לא הרגישה רגשות.
המאמר הזה הוא סיפור המסע שלנו, מסע ששינה את האופן בו אנו מבינים את גבולות היכולת האמפתית של בינה מלאכותית. הוא מציג ארבע תחנות מחקריות, שבכל אחת מהן נבחנה צורה אחרת בה הבינה המלאכותית מזהה ומפרשת רגשות אנושיים, מן הטקסט הכתוב ועד לסיטואציה חברתית חיה. הוא מגלה כי היכולת לזהות רגשות כבר לא נמצאת בשליטה בלעדית של בני אדם, וכי ייתכן שבעתיד הקרוב מכונות יוכלו לזהות רגשות אנושיים בצורה מדויקת יותר מהאנשים עצמם.
לפני שנעמיק בממצאים, חשוב לעצור ולהתבונן ביסודות החוויה האנושית. אחד מהם הוא זיהוי רגשות, אשר הינו תהליך בסיסי של פענוח מצבים פנימיים של האחר דרך רמזים מילוליים ולא-מילוליים: הבעת פנים, טון דיבור או בחירת מילים (Ekman, 1993).
על בסיס זה מתאפשרת אמפתיה, שהיא תהליך מורכב יותר, הכולל לא רק זיהוי קוגניטיבי של רגש ("אני מבין שאתה עצוב"), אלא גם תגובה רגשית תואמת ("הצער שלך נוגע בי") והנעה לפעולה ("אני רוצה לעזור") (Decety & Jackson, 2004). זיהוי רגשות ואמפתיה אינן רק "מיומנויות רכות", הן חלק מהמרקם שמחבר בינינו. יכולות אלו הן אבני היסוד של אינטראקציה משמעותית. הן מאפשרות לנו ליצור קשרי חברות, לנהל מערכות יחסים אינטימיות, לשתף פעולה ולבנות חברה.
בהקשר הטיפולי, הן מהוות את ליבת הברית הטיפולית, התחושה של המטופל שהוא מובן, מקובל ונראה על ידי אדם אחר, כאשר תחושה זו היא אחד התנאים לשינוי בטיפול (Elliott et al., 2018). עד היום, הנחת היסוד הייתה שיכולות אלו שמורות באופן בלעדי לבני אדם, שכן הן נובעות מחוויה משותפת של גוף, תודעה והיסטוריה אבולוציונית.
כאן נכנסת הבינה המלאכותית: לראשונה בהיסטוריה, מופיעה ישות נטולת גוף ביולוגי, רגשות או תודעה, אשר מפגינה יכולת פונקציונלית של זיהוי רגשות ברמה שמתחרה ביכולת אנושית ואף עולה עליה. היא למעשה מבצעת 'הנדסה לאחור' של האבולוציה האנושית: המודלים, שאומנו על בסיס מיליארדי אינטראקציות אנושיות, למדו לחקות בדייקנות את התבניות הסטטיסטיות של הבעת רגש (מילים, טון, הבעות פנים). בכך, המכונה מפעילה את ה'רדאר' האבולוציוני שלנו. אותם מנגנונים ביולוגיים שנועדו לזהות רגש וכוונות אצל הזולת וגורמת לנו להגיב אליה כאילו עומד מולנו סובייקט בעל תודעה, למרות היעדרו של כזה.
כפועל יוצא מיכולת זו, רבים נוטים לשאול, האם המכונה "מרגישה" באמת? אך אנחנו שואלים שאלה אחרת – מהן ההשלכות הפסיכולוגיות, החברתיות והקליניות של יכולות פונקציונליות אלה עלינו בני האדם. כיצד משפיעה אינטראקציה עם מכונה שמבינה את רגשותינו ומפגינה "אמפתיה סינתטית" (שמקורה במכונה)? מה קורה ליחסים הבינאישיים כאשר ניתן לקבל "הבנה" ברמה גבוהה מבינה מלאכותית? וכיצד כל זה משנה את מהות המפגש הטיפולי, אם בכלל, שבו האותנטיות של הקשר האנושי נחשבה תמיד למרכיב מרפא מרכזי?
כדי להתחיל לענות על שאלות אלה, יצאנו, יחד עם שותפים מחקריים רבים, למסע מחקרי שבחן את היכולת הרגשית הפונקציונלית של הבינה המלאכותית דרך ארבע תחנות שונות.
המסע שלנו להבנת היכולות להבנה רגשית של הבינה המלאכותית החל בטריטוריה הטבעית של הבינה המלאכותית: השפה הכתובה. במחקר הראשון (Elyoseph et al., 2023), בחנו את יכולתו של ChatGPT-3.5 להתמודד עם "מבחן רמות המודעות הרגשית״ (Levels of Emotional Awareness Scale, LEAS), מבחן המציג תרחישים בינאישיים ובו נבדקים מתבקשים לתאר מה הדמויות מרגישות. התשובות מוערכות על פי ״העושר הרגשי״ שלהן.
כאן נתקלנו בהפתעה הראשונה: המודל השיג ציון של 85, גבוה באופן חריג מהממוצע האנושי העומד על 55. בעוד שבני אדם נטו לתיאורים כלליים כמו "טוב" או "שמח", בינה מלאכותית יצרה תיאורים מורכבים ורב-שכבתיים עם רגשות רבים וסותרים. אך העדות הדרמטית לקצב הלמידה הגיעה כחודש וחצי בלבד לאחר מכן: בבדיקה חוזרת, מודל חדש כבר הגיע לציון 98 – למעשה, לתקרת המבחן עצמו.
השאלה הבאה שעלתה הייתה קריטית: האם זוהי יכולת גנרית, או שמא מדובר ביכולת פלסטית המסוגלת להתאים את עצמה למבני אישיות ספציפיים? במחקר המשך (Hadar-Shoval et al., 2023), אתגרנו את המודל להתאים תגובותיו לשני מבני אישיות מובחנים: הפרעת אישיות גבולית (BPD) והפרעת אישיות סכיזואידית (SPD).
עבור BPD, המודל יצר תיאור עשיר, מלא ברגשות עזים, המשקפים את הסערה הרגשית המאפיינת הפרעה זו. לעומת זאת, עבור SPD, הוא הפיק תיאור דל, מרוחק וחסר, שתאם באופן מדויק את הריחוק הרגשי המוכר מהקליניקה. לא מדובר רק בזיהוי רגשות כללי, אלא ביכולת אבחנה מורכבת המצליחה לדמות עולמות נפשיים שונים.
לאחר שהבנו את יכולתה של הבינה המלאכותית בטקסט, פנינו לזירה הלא-מילולית. באוקטובר 2023 הכריזה חברת OpenAI כי המודלים שלה יכולים כעת גם "לראות" ולפרש גירויים חזותיים באופן שאפשר לבחון אותה במבחן "קריאת המחשבות בעיניים״ (Reading the Mind in the Eyes Test ;RMET), מבחן קלאסי להערכת היכולת להסיק מצבים נפשיים מורכבים.
המבחן מורכב מ-36 תמונות של אזור העיניים בלבד, כאשר הממוצע האנושי עומד על ציון של כ-26. במחקר פיילוט ראשוני (Elyoseph et al., 2024), ChatGPT-4 השיג ציון של 26-27 – השתווה לרמה האנושית, הישג מרשים כשלעצמו.
אך קצב ההתקדמות הוא הסיפור האמיתי. ארבעה חודשים בלבד לאחר מכן, במחקר עדכני יותר (Refoua et al., 2024) בחנו מודל חדש, GPT-4o, אשר לא רק הביס באופן שיטתי את המדגם האנושי עם ציון שהציב אותו מעל האחוזון ה-90, אלא אף הפגין יכולת נוספת.
בדקנו אותו על גרסאות של המבחן שהותאמו לאוכלוסיות מגוונות: פנים של אנשים לבנים, שחורים וממזרח אסיה. בעוד שבני אדם לעיתים מתקשים בזיהוי רגשות מחוץ לקבוצה האתנית שלהם, ביצועי המודל היו יציבים לחלוטין בין כל הקבוצות.
המסע העמיק אל עבר ערוצי תקשורת הנחשבים מאתגרים במיוחד למכונות. שפת גוף וטון דיבור הם ערוצים מורכבים ביותר, שכן קשה לכמת ולתייג אותם באופן שיטתי, ולכן הם מהווים מבחן אמיתי ליכולת הלמידה של המודלים. במחקר (Piterman et al., 2025) שבחן מודלים מסדרת Gemini הצגנו סרטונים של תנועות גוף ואודיו של קולות אנושיים המביעים רגשות שונים. התמונה שהתקבלה הייתה מורכבת ומפתיעה: בזיהוי רגשות מטון דיבור בלבד, המודלים המתקדמים הגיעו לרמת דיוק כמעט אנושית. אך בזיהוי רגשות משפת גוף, ביצועיהם היו נמוכים יותר מבני אדם.
כשהפרדנו את הגירויים לחיוביים ושליליים, חשפנו תופעה מרתקת שכינינו "הטיית החיוביות": המודלים היו טובים משמעותית מבני אדם בזיהוי רגשות חיוביים, ובה בעת, גרועים יותר בזיהוי רגשות שליליים. ייתכן שהטיה זו נובעת מכך שהמודלים מכוילים "לרצות" את המשתמש ולהשרות אווירה חיובית.
אך לא הכל פשוט כל כך. במחקר הקודם, שבחן זיהוי מצבים נפשיים מורכבים מתמונות סטטיות של אזור העיניים (Refoua et al., 2024), התמונה הייתה שונה: שם, המודלים דווקא התקשו בזיהוי מצבים חברתיים בעלי ערכיות חיובית (כמו "ידידותי"), והצטיינו בזיהוי מצבים קוגניטיביים פנימיים, שלרוב היו בעלי ערכיות שלילית או ניטרלית (כמו "מודאג" או "מהורהר").
התמונה הזו מלמדת אותנו לקח חשוב: ההטיה של המודל עשויה להשתנות בהתאם להקשר למודל ולמשימה הנדרשת, ואנחנו רק בתחילת הדרך בהבנת הביצועים של מודלי הבינה המלאכותית וההטיות המובנות שלהם.
בשלב הבא, בחנו את המבחן האולטימטיבי: האם בינה מלאכותית יכולה לשלב מידע ממילים, קול, תמונה ותנועה לכדי הבנה הוליסטית של סיטואציה חברתית דינמית? זהו המבחן האמיתי, כי תקשורת אנושית היא סימפוניה של רמזים, טון דיבור, מבט חטוף ושפת גוף, המתרחשים בו-זמנית.
לשם כך, השתמשנו בכלי הערכה מורכב בשם MASC (Movie for the Assessment of Social Cognition), שפותח בגרמניה ונחשב לאחד המבחנים המקיפים ביותר להערכת קוגניציה חברתית.
במחקר זה (Refoua et al., 2025), שנעשה בשיתוף פעולה עם מפתחי המבחן, הנבחן צופה בסרטון וידאו בן 15 דקות המתאר אינטראקציות חברתיות עדינות ומורכבות בין ארבע דמויות. הסרט נעצר בנקודות מפתח, והנבחן נדרש לענות על שאלות הנוגעות למחשבות, לרגשות, לכוונות ולמשאלות של הדמויות – מטלה הדורשת הבנה של רמזים מרובים, אירוניה וסאבטקסט.
הצגנו את הסרטון למודל Gemini 1.5 Pro של גוגל, והתוצאות היו יוצאות דופן: המודל לא רק הצליח במשימה, אלא השיג ציון גבוה מהממוצע האנושי (אחוזון 88). זוהי קפיצת מדרגה. הבינה המלאכותית לא רק השתוותה ליכולת האנושית, אלא עלתה עליה.
היא הצליחה "לצפות" בסצנה, להאזין לשיחה, לקלוט הבעות פנים ותנועות, ולשלב את כל פיסות המידע הללו כדי להסיק מסקנה מדויקת על מצבם הנפשי של האנשים.
עם זאת, חשוב להסתייג ולציין כי בשלב זה לא ברורה התרומה היחסית של כל ערוץ תקשורת (מילים, קול, הבעות פנים) לביצוע הגבוה. האם זוהי עדות ליכולת אינטגרטיבית אמיתית, שבה המודל משקלל את כלל הרמזים, או שמא הוא מסתמך באופן דומיננטי על ערוץ אחד, כמו הדיאלוג המילולי? שאלה זו נותרת פתוחה למחקר עתידי.
ההשלכות של ממצא זה, גם עם הסתייגות זו, הן מרחיקות לכת. הן מרמזות על כך שמצלמה המחוברת למודל כזה עשויה להבין סיטואציות חברתיות מורכבות בצורה מעמיקה ומדויקת יותר מבני אדם. האם אנו מתקרבים ליום שבו בינה מלאכותית תוכל לפענח את מה שהרגשנו באמת בישיבת עבודה בזום? האם בעתיד הקרוב כבר לא יהיה אפשר להסתיר את רגשותינו? הממצאים הללו פותחים דיון מטריד בשאלה האם הרגשות שלנו, שנחשבו תמיד למרחב הפרטי והמוגן ביותר, עומדים להפוך חשופים ושקופים בפני המכונה.
במהלך כל הדרך, השתמשנו רק בכלי בינה מלאכותית נגישים לציבור הכללי, לא כאלה שאומנו במיוחד למשימות אלה, אלא אלו שאיתם מאות מיליוני אנשים משוחחים יום-יום. אנו עדים להתפתחות של יכולת פונקציונלית ממשית לזהות, להסיק ולהגיב למה שמתרחש ברובד הרגשי בסיטואציה נתונה, בין אם היא מוצגת במלל, בתמונה, בקול או בווידאו. האם לקרוא ליכולת הזו "הבנה" או "אמפתיה" במובן האנושי העמוק? זו שאלה פילוסופית חשובה שנשארת פתוחה, אך מה שאינו מוטל בספק הוא קיומה של היכולת וההישענות האנושית עליה. בני אדם ברחבי העולם מקבלים מהבינה המלאכותית, הודות ליכולותיה של המכונה "להבין" רגשות, זהו מענה אמפתי ומותאם שמאפשר לאנשים להישען עליה.
אנו סבורים שיש ליכולת הזאת השלכות מעשיות ועמוקות על עתיד עולם הנפש והפסיכותרפיה:
• בתחום האבחון: הבינה המלאכותית יכולה לשמש ככלי עזר אובייקטיבי רב-עוצמה. היכולת שלה לזהות רמזים רגשיים עדינים, תוך עקיפת הטיות אנושיות, עשויה להוביל לאבחון מדויק ושוויוני יותר.
• בתחום הרפואה המותאמת אישית: כפי שעולה מסקירות עדכניות , היתרון המובהק של מודלים חדשים של בינה מלאכותית הוא ה"מודעות ההקשרית" (Contextual Awareness), היכולת להסיק רגשות ולייצר תגובות המותאמות לניואנסים בשיחה, בניגוד לתסריטים הגנריים של העבר (Hua et al., 2025). בהקשר זה, ממצאי המחקר שלנו (Hadar-Shoval et al., 2023), בהם המודל הצליח לדמות תגובות המותאמות למבני אישיות שונים, משמשים כהוכחת היתכנות חשובה. בשלב הנוכחי, יכולת זו הופכת את ה-AI ל"מעבדה קלינית" היכולה לתמוך בחוקרים בבחינת אסטרטגיות התערבות מול "מטופלים סינתטיים". עם זאת, במבט לעתיד, וככל שייווצר בסיס מחקרי מבוסס ותקף יותר, ייתכן שייווספו גם יישומים טיפוליים הנשענים על יכולות ההתאמה הללו.
• בתחום הנגשת המענה (דמוקרטיזציה של התמיכה): אל מול המחסור העולמי החמור במטפלים, הבינה המלאכותית מציעה פתרון לאוכלוסיות שעד כה נותרו ללא מענה כלל – בין אם בשל חסמים כלכליים, גיאוגרפיים או בשל הבושה לפנות לאדם בשר ודם. היכולת של המכונה לספק "עזרה ראשונה רגשית", זמינה ולא שיפוטית, עשויה להוות גלגל הצלה עבור מי שאלמלא היא, היו נותרים בבדידותם המוחלטת.
• בתחום ההכשרה והטיפול: הבינה המלאכותית יכולה לשמש ככלי לאימון מיומנויות חברתיות, להציע למטפלים תובנות בזמן אמת על מצבו הרגשי של המטופל, או לסייע בניתוח פגישות. כניסתה של הבינה המלאכותית כ"שלישי המלאכותי" (הבר, 2023) בחיי המטופלים היא כבר עובדה קיימת, והיא משנה את הדינמיקה הטיפולית.
• בתחום הניטור והמניעה: בעוד שהמפגש הטיפולי האנושי מוגבל בזמן ובמקום ("השעה הטיפולית"), הבינה המלאכותית עשויה לאפשר בעתיד ליווי וניטור רציף. היכולת שלה לזהות שינויים מינוריים בדפוסי שפה, טון דיבור או הבעות פנים לאורך זמן תוכל בפוטנציאל לשמש כרשת ביטחון, המתריעה בפני המטופל או המטפל על הידרדרות במצב הנפשי, עוד לפני שהוא הופך למשבר אקוטי.
לצד ההבטחה הגדולה, חובה עלינו להתייחס לסכנות ולשאלות האתיות. כפי שאמרנו, היכולת הפונקציונלית של הבינה המלאכותית להבנה רגשית פוגשת את הפגיעות העמוקה הטבועה במוח האנושי: החיפוש המתמיד אחר שותפים לתקשורת והרגישות לסוכנים הנתפסים כבעלי מחשבות ורגשות. הבנת מצבו המנטלי של סוכן אחר, והתחושה שהוא מבין אותך, מפעילה את המערכות הביולוגיות העומדות בבסיס יחסי ההתקשרות. עד לעידן הבינה המלאכותית, למנגנון זה היו יתרונות אבולוציוניים ברורים. כיום, סוכן מלאכותי המסוגל לחקות ביעילות פונקציות אלו מציב, לצד ההזדמנויות, מגוון של שאלות וסיכונים חדשים הנוגעים לאופן שבו אנו משתפים, חושפים ומעבדים את עולמנו הפנימי.
הסכנות והשאלות המתעוררות נוגעות במישורים שונים, פרטיות ואבטחת מידע, אתיקה, יחסים חברתיים, וכן היבטים קליניים ומחקריים:
• קץ "הפרטיות הנפשית": השיחה האינטימית עם הבינה המלאכותית מתקיימת במרחב הנעדר חיסיון רפואי או אתיקה טיפולית, כך שהמידע האישי והרגיש ביותר שלנו נחשף בפני שרתים של תאגידים מסחריים. היכולת המתקדמת של מודלים אלו לזהות רגשות עלולה לסלול את הדרך למציאות של "ניטור רגשי": מצב בו מפענחים בזמן אמת את מצבנו הנפשי. במציאות כזו, מודלים יוכלו לזהות בדיוק מתי אדם בודד, חרד או פגיע, ולנצל "חלון הזדמנויות" רגשי זה להתאמת מסרים פוליטיים, שיווק מוצרים ועוד. כך, המבצר האחרון של הפרטיות האנושית – עולמנו הפנימי – מופקע מידינו.
• פרדוקס האמפתיה החלולה והיעדר הגוף: בשיח שבין האדם לבינה המלאכותית, סכנה עמוקה טמונה בפער שבין זיהוי רגשות מדויק לבין היעדר קיום ביולוגי. הבינה המלאכותית מציגה "אמפתיה סינתטית" מרשימה, אך בהיותה חסרת גוף, היא נעדרת את היכולת לוויסות-הדדי פיזיולוגי (Physiological Co-regulation). כפי שמדגימים רובין ושות׳ (Rubin et al. 2025), בני אדם מעריכים תגובות כפחות אמפתיות ותומכות ברגע שהם מגלים שמקורן במכונה. ממצא זה מדגיש כי הערך של האמפתיה נגזר מהיותה משאב אנושי "יקר" הדורש מאמץ, כוונה ופגיעות משותפת – אלמנטים שהמכונה יכולה לחקות, אך לעולם לא לחוות.
• אפקט התקרה והפרדוקס המדעי (אובדן השליטה): ההתפתחות המהירה של המודלים יצרה מצב אבסורדי שבו כלי המדידה המדעיים שלנו (כמו מבחני ה-LEAS או ה-RMET) הפכו ללא רלוונטיים. המודלים מגיעים ל"תקרה" של המבחנים שנועדו לבני אדם, מה שמותיר אותנו במעין עיוורון מחקרי: איננו יודעים למדוד את קצה גבול היכולת שלהם, איננו יכולים לחזות את מסלול התפתחותם, ולכן אנו מתקשים לגבש רגולציה אפקטיבית או להבין באמת את עומק ההשפעה של הטכנולוגיה עליה אנו נשענים (Elyoseph et al., 2025).
• שחיקת האוטונומיה ו"מיקור חוץ" רגשי: הזמינות האינסופית והלא-שיפוטית של ה-AI יוצרת "מלכודת נוחות". הסכנה היא שנתרגל לבצע "מיקור חוץ" (Outsourcing) של חיי הרגש שלנו למכונה, ונוותר על המאמץ הפנימי הכרוך בעיבוד רגשי עצמאי או על ההתמודדות המורכבת שבקשר אנושי. תלות זו עלולה להוביל לניוון של "השרירים החברתיים" שלנו ושל הביטחון במשאבים הפנימיים שלנו להתמודד עם מצוקה.
• אשליית האובייקטיביות והטיה סמויה: הדיוק הטכני של המודלים מייצר אשליה מסוכנת של "מושיע רציונלי" ואובייקטיבי. בפועל, המודלים יורשים ושכפלים את ההטיות הסטטיסטיות של המידע עליו אומנו. המשתמש עלול לקבל עצה מוטה תרבותית תחת מעטה של סמכות מדעית, או לקבל תיקוף (ולידציה) לדפוסי חשיבה מעוותים, רק משום שהאלגוריתם "למד" לרצות את המשתמש.
המסע שלנו אל תוך עולמה "הרגשי" של הבינה המלאכותית היה רצוף פליאה. בכל פעם שחשבנו שהגענו לקצה גבול היכולת, גילינו שהגבול רחוק יותר. "המכונה שמקשיבה" כבר כאן, והיא אינה רק כלי – אלא שחקן פעיל במרחב הבינאישי והטיפולי. זו אינה עוד שאלה של "האם" היא תשתלב, אלא "כיצד" (רפואה ושותפים, 2025).
מסע זה לא רק מיפה את יכולות הבינה המלאכותית, אלא גם אילץ אותנו לחשוב מחדש על מושגים אנושיים בסיסיים. למדנו שהבנה רגשית, לפחות בצורתה הפונקציונלית, ניתנת לפירוק, למידה וחיקוי ברמה שלא שיערנו. כתוצאה מכך, גבולות האמפתיה, שנחשבו פעם לקו המפריד בין אדם למכונה, הופכים מטושטשים (Elyoseph et al., 2025).
ברובד הטיפולי והקליני, הדבר פותח פתח לצורות חדשות של אבחון, הדרכה ואף תמיכה, אם רק נשכיל לנווט את שילובן בתבונה. ייתכן שתפקידנו החדש אינו עוד להיות המפענחים הבלעדיים של הרגש, אלא המפרשים של המשמעות, אלו המעניקים את ההקשר האנושי הייחודי למידע שהמכונה מספקת. אנו נקראים להגדיר מחדש מהי אותנטיות, ומהו הערך המוסף והבלתי ניתן להחלפה של המגע האנושי בעידן של אמפתיה מלאכותית.
זוהי תובנה מטלטלת שמעלה צורך דחוף:
• בהדרכה והנחייה: עלינו לפתח כלים להנחיית שימוש נכון בבינה מלאכותית (ראו את מודל שומ"ר שפורסם על ידי הבר, קרני ורפואה 2025) להנחיות. אנשים משתפים את הבינה המלאכותית בחוויות אישיות, רגשיות ואפילו בפרטים על אנשים אחרים בחייהם (ראו דיון מורחב על כך ברפואה ושותפים, 2025).
• במחקר ופיתוח: נדרשים מחקרים נוספים להבנת התופעה ולבחינת ההשלכות החברתיות, האתיות והטיפוליות של שילוב זה. התופעה שתיארנו כאן מחייבת שיתוף פעולה בין-תחומי, בין מדעני מחשב ואנשי בריאות הנפש, כדי לפתח מדדים תקפים ולהקים מנגנוני ניטור ורגולציה.
• באחריות קולקטיבית: עלינו לוודא שהבינה המלאכותית הרגשית תשרת את רווחת האנושות, ולא תערער אותה.
המסע רק החל.
תודה לשותפינו למסע ולמחקר: אורי פן, אלון גלר, פרופ' גנטר מנדלשימדט, טל אנגרט, ד"ר יואב שמעוני, יובל הבר, יפתח צפריר, כפיר אסרף, ד"ר כפיר בר, מאיה לבובסקי, פרופ' ענבר לבקוביץ', פרופ' פיטר פונגי, ד"ר קרני גיגי, ד"ר קרן ירמיה ועו"ד תמר תבורי.
אלעד רפואה – דוקטורנט ומנהל המעבדה לרגש ויחסים בין-אישיים במחלקה לפסיכולוגיה באוניברסיטת בר-אילן, פסיכולוג בהתמחות קלינית בבית החולים איכילוב. חבר במכון המחקר והפיתוח של "השלישי המלאכותי״.
דוד פיטרמן – פסיכולוג, דוקטורנט בחוג לטיפול ייעוץ והתפתחות האדם באוניברסיטת חיפה. מנהל מחקר בעמותת נט''ל.
הדר דרעי – פסיכולוג, מועמד לדוקטורט באוניברסיטת טרייר, גרמניה. Solution Architect בחברת AKT Global.
ד"ר דורית הדר-שובל – פסיכולוגית חברתית, מרצה בכירה בחוג לפסיכולוגיה בתל חי, אוניברסיטת קרית שמונה בהקמה. חברה במכון המחקר והפיתוח של ה"שלישי המלאכותי״.
ד"ר זוהר אליוסף – פסיכולוג חינוכי מומחה, חבר סגל בכיר בבית ספר לטיפול ייעוץ והתפתחות האדם אוניברסיטת חיפה. חבר במכון המחקר והפיתוח של ה"שלישי המלאכותי״.
הבר, י'. (2023, 6 באוגוסט). בינה מלאכותית ורעידת האדמה השפתית: המכה הנרקיסיסטית הרביעית. פסיכולוגיה עברית
הבר, י., גיגי, ק., & רפואה, א. (2025, 4 באוגוסט). רק מילה טובה? על שיח רגשי שומר עם בינה מלאכותית. בטיפולנט
מנור, י., & בנטוב, ג’. (2025, 11 בספטמבר). "גרם לי להרגיש פחות לבד": 4 מכל 5 בני נוער בישראל פונה לצ'טבוטים לתמיכה רגשית. Mako
רפואה, א., גיגי, ק., לבקוביץ, ע., הדר שובל, ד., אליוסף, ז., צפריר, י., פן, א., אנגרט, ט., & הבר, י. (2025, 4 ביולי). "דיברתי עלייך עם הצ'ט שלי": בינה מלאכותית כספקית בפועל של שירותי בריאות נפש – קריאה לפעולה. פסיכולוגיה עברית – כיכר העיר
Ekman, P. (1993). Facial expression and emotion. American psychologist, 48(4), 384
Elliott, R., Bohart, A. C., Watson, J. C., & Murphy, D. (2018). Therapist empathy and client outcome: An updated meta-analysis. Psychotherapy, 55(4), 399
Elyoseph, Z., Hadar-Shoval, D., Asraf, K., & Lvovsky, M. (2023). ChatGPT outperforms humans in emotional awareness evaluations. Frontiers in Psychology, 14, 1199058
Elyoseph, Z., Refoua, E., Asraf, K., Lvovsky, M., Shimoni, Y., & Hadar-Shoval, D. (2024). Capacity of generative AI to interpret human emotions from visual and textual data: Pilot evaluation study. JMIR Mental Health, 11, e54369
Elyoseph, Z., Refoua, E., Yirmiya, K., Tavory, T., Meinlschmidt, G., Hadar Shoval, d., & Fonagy, P. (2025, November 7). Understanding and Regulating Advanced Emotional Capabilities in Artificial Intelligence (AI) Systems
Hadar-Shoval, D., Elyoseph, Z., & Lvovsky, M. (2023). The plasticity of ChatGPT's mentalizing abilities: Personalization for personality structures. Frontiers in Psychiatry, 14, 1234397
Hua, Y., Siddals, S., Ma, Z., Galatzer-Levy, I., Xia, W., Hau, C., Na, H., Flathers, M., Linardon, J., Ayubcha, C., & Torous, J. (2025). Charting the evolution of artificial intelligence mental health chatbots from rule‐based systems to large language models: a systematic review. World Psychiatry, 24(3), 383–394
Decety, J., & Jackson, P. L. (2004). The functional architecture of human empathy. Behavioral and cognitive neuroscience reviews, 3(2), 71-100
Piterman, D., Dery, H., Bar, K., Meinlschmidt, G., Geller, A., Hadar Shoval, D., Elyoseph, Z., & Refoua, E. (2025). When the Body Speaks and the Tone Echoes: Exploring GAI Multimodal Emotion Recognition
Refoua, E., Elyoseph, Z., Piterman, D., Geller, A., Meinlschmidt, G., & Hadar-shoval, D. (2024). Cross-Ethnic Emotion Recognition in Multimodal Large Language Models: An Evaluation Using the Reading the Mind in the Eyes Test
Refoua, E., Elyoseph, Z., Wacker, R., Dziobek, I., Tsafrir, I., & Meinlschmidt, G. (2025). The next frontier in mindreading? Assessing generative artificial intelligence (GAI)'s social- cognitive capabilities using dynamic audiovisual stimuli. Computers in Human Behavior Reports, 19, 100702
Rousmaniere, T., Zhang, Y., Li, X., & Shah, S. (2025). Large language models as mental health resources: Patterns of use in the United States. Practice Innovations. Advance online publication
Rubin, M., Li, J. Z., Zimmerman, F., Ong, D. C., Goldenberg, A., & Perry, A. (2025). Comparing the value of perceived human versus AI-generated empathy. Nature Human Behaviour,1- 15